Valutazione della spiegabilità nei sistemi ATR critici per la sicurezza
Un nuovo articolo su arXiv (2605.05748) valuta i metodi di spiegabilità per i sistemi di Riconoscimento Automatico dei Target (ATR) critici per la sicurezza. Gli autori identificano i principali paradigmi XAI—basati su salienza, attenzione, approcci surrogati ed estensioni consapevoli del rilevamento—e formalizzano la spiegabilità come una valutazione orientata alla garanzia. Introducono una tassonomia e valutano i metodi in quattro dimensioni: interpretabilità, robustezza, vulnerabilità alla manipolazione e idoneità per la validazione e verifica. L'articolo sostiene che l'elevata performance predittiva da sola è insufficiente per i sistemi ATR che operano su dati di immagini, video, radar e multisensore.
Fatti principali
- L'articolo arXiv 2605.05748 valuta la spiegabilità nei sistemi ATR critici per la sicurezza.
- Identifica i paradigmi XAI: basati su salienza, attenzione, surrogati e consapevoli del rilevamento.
- Formalizza la spiegabilità come un problema di valutazione orientato alla garanzia.
- Introduce una tassonomia per i metodi XAI in ATR.
- Valuta i metodi in termini di interpretabilità, robustezza, vulnerabilità alla manipolazione e idoneità alla validazione.
- I sistemi ATR utilizzano dati di immagini, video, radar e multisensore.
- L'elevata performance predittiva da sola è considerata insufficiente per l'ATR critico per la sicurezza.
- L'articolo è pubblicato su arXiv.
Entità
Istituzioni
- arXiv