ARTFEED — Contemporary Art Intelligence

Documento di Ricerca Critica SHAP e i Metodi Non-Simbolici di XAI per la Mancanza di Rigore

ai-technology · 2026-04-20

Un documento di ricerca critica la mancanza di rigore nei metodi non-simbolici utilizzati per spiegare modelli complessi di machine learning, un problema particolarmente acuto nelle applicazioni ad alto rischio. Il documento si concentra specificamente sull'adozione diffusa dei valori di Shapley nell'intelligenza artificiale spiegabile, con lo strumento SHAP citato come esempio prominente di questo approccio problematico. Per circa dieci anni, queste tecniche non-simboliche sono state la scelta dominante per la spiegazione dei modelli. Il lavoro esamina le iniziative in corso per impiegare metodi simbolici rigorosi per XAI come alternativa valida, concentrandosi sul compito specifico di assegnare l'importanza relativa delle caratteristiche. Questo cambiamento viene presentato come necessario perché i metodi attuali possono fuorviare i decisori umani. Il documento è ospitato su arXiv, una piattaforma per la condivisione di ricerche scientifiche, nelle categorie informatica e intelligenza artificiale.

Fatti principali

  • Il documento critica i metodi non-simbolici di intelligenza artificiale spiegabile per la mancanza di rigore.
  • Identifica l'adozione dei valori di Shapley in XAI come esempio principale di questa mancanza di rigore.
  • Lo strumento SHAP viene evidenziato come esempio ubiquo di questo approccio.
  • I metodi non-simbolici sono stati la scelta dominante per spiegare i modelli di ML per circa un decennio.
  • La mancanza di rigore è particolarmente problematica negli usi ad alto rischio del machine learning.
  • Il documento esamina gli sforzi per utilizzare metodi simbolici rigorosi come alternativa.
  • Il focus di questi metodi alternativi è sull'assegnazione dell'importanza relativa delle caratteristiche.
  • Il documento è disponibile sul repository arXiv.

Entità

Istituzioni

  • arXiv

Fonti