ARTFEED — Contemporary Art Intelligence

Sonda di affidabilità VLM rivela che l'attenzione non è un predittore di correttezza

ai-technology · 2026-05-12

Una recente indagine meccanicistica mette in discussione la convinzione diffusa che mappe di attenzione distinte nei modelli visione-linguaggio (VLM) siano correlate a risposte accurate. I ricercatori hanno utilizzato la pipeline VLM Reliability Probe (VRP) su tre famiglie di VLM open-weight: LLaVA-1.5, PaliGemma e Qwen2-VL (3-7B parametri). I risultati rivelano che la struttura dell'attenzione è un predittore quasi trascurabile dell'accuratezza (R_pb(C_k,y)=0,001, IC 95% [-0,034,0,036]), sebbene l'attenzione sia essenziale per l'estrazione delle caratteristiche (mascherare il 30% superiore dei patch riduce l'accuratezza dell'8,2-11,3 pp, p<0,001). L'affidabilità si manifesta più avanti nel processo computazionale, come mostrato dalla geometria degli stati nascosti. Questa ricerca offre un quadro coeso per valutare l'affidabilità dei VLM.

Fatti principali

  • La struttura dell'attenzione è un predittore quasi nullo di correttezza (R_pb(C_k,y)=0,001).
  • Il mascheramento del 30% superiore dei patch riduce l'accuratezza di 8,2-11,3 punti percentuali (p<0,001).
  • Testate tre famiglie di VLM: LLaVA-1.5, PaliGemma, Qwen2-VL (3-7B parametri).
  • La pipeline VLM Reliability Probe (VRP) confronta attenzione, dinamiche di generazione e geometria degli stati nascosti.
  • Campione aggregato n=3.090 utilizzato per l'analisi.
  • L'affidabilità diventa leggibile più avanti nel calcolo tramite la geometria degli stati nascosti.
  • L'attenzione rimane causalmente necessaria per l'estrazione delle caratteristiche nonostante il basso potere predittivo.
  • Lo studio mette in discussione l'ipotesi attenzione-fiducia.

Entità

Istituzioni

  • arXiv

Fonti