Sonda di affidabilità VLM rivela che l'attenzione non è un predittore di correttezza
Una recente indagine meccanicistica mette in discussione la convinzione diffusa che mappe di attenzione distinte nei modelli visione-linguaggio (VLM) siano correlate a risposte accurate. I ricercatori hanno utilizzato la pipeline VLM Reliability Probe (VRP) su tre famiglie di VLM open-weight: LLaVA-1.5, PaliGemma e Qwen2-VL (3-7B parametri). I risultati rivelano che la struttura dell'attenzione è un predittore quasi trascurabile dell'accuratezza (R_pb(C_k,y)=0,001, IC 95% [-0,034,0,036]), sebbene l'attenzione sia essenziale per l'estrazione delle caratteristiche (mascherare il 30% superiore dei patch riduce l'accuratezza dell'8,2-11,3 pp, p<0,001). L'affidabilità si manifesta più avanti nel processo computazionale, come mostrato dalla geometria degli stati nascosti. Questa ricerca offre un quadro coeso per valutare l'affidabilità dei VLM.
Fatti principali
- La struttura dell'attenzione è un predittore quasi nullo di correttezza (R_pb(C_k,y)=0,001).
- Il mascheramento del 30% superiore dei patch riduce l'accuratezza di 8,2-11,3 punti percentuali (p<0,001).
- Testate tre famiglie di VLM: LLaVA-1.5, PaliGemma, Qwen2-VL (3-7B parametri).
- La pipeline VLM Reliability Probe (VRP) confronta attenzione, dinamiche di generazione e geometria degli stati nascosti.
- Campione aggregato n=3.090 utilizzato per l'analisi.
- L'affidabilità diventa leggibile più avanti nel calcolo tramite la geometria degli stati nascosti.
- L'attenzione rimane causalmente necessaria per l'estrazione delle caratteristiche nonostante il basso potere predittivo.
- Lo studio mette in discussione l'ipotesi attenzione-fiducia.
Entità
Istituzioni
- arXiv