Il framework MHSA riduce le allucinazioni nei modelli visione-linguaggio
Un nuovo framework chiamato MHSA (Mitigating Hallucinations via Steered Attention) è stato sviluppato dai ricercatori per minimizzare le allucinazioni nei grandi modelli visione-linguaggio (LVLM). Le allucinazioni si verificano quando questi modelli producono output che non corrispondono ai dati visivi. A differenza dei precedenti sforzi, come DHCP (Detecting Hallucinations by Cross-modal Attention Pattern), che si concentravano esclusivamente sulla rilevazione, MHSA mira a correggere i pattern di attenzione cross-modale. Utilizza un semplice generatore MLP a tre strati per generare attenzione corretta, sfruttando segnali di supervisione provenienti sia dal discriminatore DHCP che dal LVLM. Durante l'inferenza, MHSA riduce efficacemente sia le allucinazioni generative che quelle discriminative su più dataset e LVLM, sostituendo l'attenzione cross-modale originale. La ricerca è disponibile su arXiv con il riferimento 2605.14966.
Fatti principali
- MHSA sta per Mitigating Hallucinations via Steered Attention.
- È un framework leggero per ridurre le allucinazioni nei LVLM.
- Il precedente lavoro DHCP rilevava solo le allucinazioni, non le mitigava.
- MHSA addestra un generatore MLP a tre strati per correggere i pattern di attenzione.
- I segnali di supervisione provengono dal discriminatore DHCP e dal LVLM.
- Durante l'inferenza, MHSA sostituisce l'attenzione cross-modale originale.
- Affronta sia le allucinazioni discriminative che quelle generative.
- L'articolo è su arXiv con ID 2605.14966.
Entità
Istituzioni
- arXiv