ARTFEED — Contemporary Art Intelligence

Valutazione della spiegabilità nei sistemi ATR critici per la sicurezza

publication · 2026-05-09

Un nuovo articolo su arXiv (2605.05748) valuta i metodi di spiegabilità per i sistemi di Riconoscimento Automatico dei Target (ATR) critici per la sicurezza. Gli autori identificano i principali paradigmi XAI—basati su salienza, attenzione, approcci surrogati ed estensioni consapevoli del rilevamento—e formalizzano la spiegabilità come una valutazione orientata alla garanzia. Introducono una tassonomia e valutano i metodi in quattro dimensioni: interpretabilità, robustezza, vulnerabilità alla manipolazione e idoneità per la validazione e verifica. L'articolo sostiene che l'elevata performance predittiva da sola è insufficiente per i sistemi ATR che operano su dati di immagini, video, radar e multisensore.

Fatti principali

  • L'articolo arXiv 2605.05748 valuta la spiegabilità nei sistemi ATR critici per la sicurezza.
  • Identifica i paradigmi XAI: basati su salienza, attenzione, surrogati e consapevoli del rilevamento.
  • Formalizza la spiegabilità come un problema di valutazione orientato alla garanzia.
  • Introduce una tassonomia per i metodi XAI in ATR.
  • Valuta i metodi in termini di interpretabilità, robustezza, vulnerabilità alla manipolazione e idoneità alla validazione.
  • I sistemi ATR utilizzano dati di immagini, video, radar e multisensore.
  • L'elevata performance predittiva da sola è considerata insufficiente per l'ATR critico per la sicurezza.
  • L'articolo è pubblicato su arXiv.

Entità

Istituzioni

  • arXiv

Fonti