Equità e Spiegabilità dell'IA: Un Quadro Unificato per il Pregiudizio Procedurale
Un recente articolo di rassegna pubblicato su arXiv evidenzia una significativa lacuna all'incrocio tra equità algoritmica e IA spiegabile (XAI). I ricercatori sostengono che un modello può soddisfare gli standard convenzionali di equità nei suoi risultati ma mostrare una sostanziale iniquità nel suo ragionamento, un concetto che chiamano 'pregiudizio procedurale'. Questo articolo rappresenta la prima revisione teorica e bibliografica completa in questo settore in via di sviluppo, affrontando settori critici come la giustizia penale, la sanità, il credito e l'occupazione. Sfida l'efficacia degli spiegatori post-hoc nel garantire l'equità delle spiegazioni e suggerisce una serie di assiomi insieme a un quadro volto a promuovere un'IA responsabile.
Fatti principali
- L'articolo è una rassegna sull'equità delle spiegazioni nell'IA.
- Identifica il pregiudizio procedurale come un nuovo punto cieco.
- Il pregiudizio procedurale si verifica quando il processo di ragionamento di un modello è iniquo nonostante output equi.
- L'articolo copre decisioni ad alto rischio in giustizia penale, sanità, credito e occupazione.
- Fornisce la prima revisione teorica e bibliografica unificata di questo campo.
- Critica gli spiegatori post-hoc per la certificazione dell'equità delle spiegazioni.
- L'articolo propone assiomi e un quadro per un'IA responsabile.
- L'articolo è pubblicato su arXiv con ID 2605.09852.
Entità
Istituzioni
- arXiv