Miglioramento della Capacità di Rifiuto nei Grandi Modelli Visione-Linguaggio
I ricercatori hanno sviluppato un framework per migliorare la capacità dei Grandi Modelli Visione-Linguaggio (VLM) di rifiutare di rispondere a domande che superano la loro conoscenza parametrica, riducendo le allucinazioni fattuali. Il metodo prevede la creazione di un dataset 'Visual-Idk' specifico per il modello, utilizzando il probing di consistenza multi-campione per distinguere fatti noti da quelli sconosciuti. I modelli vengono quindi allineati tramite fine-tuning supervisionato e ottimizzazione basata sulle preferenze (DPO, ORPO). Sul dataset Visual-Idk, il Tasso di Veridicità è migliorato dal 57,9% al 67,3%. Il probing interno indica che il modello riconosce genuinamente i propri confini di conoscenza.
Fatti principali
- I VLM sono soggetti ad allucinazioni fattuali, specialmente in domini di nicchia o specializzati.
- I modelli attuali hanno una debole capacità di rifiuto per domande che superano la loro conoscenza.
- Un framework sistematico migliora la capacità di rifiuto per domande sconosciute.
- Un dataset 'Visual-Idk' specifico per il modello viene curato usando il probing di consistenza multi-campione.
- Fine-tuning supervisionato e ottimizzazione basata sulle preferenze (DPO, ORPO) sono utilizzati per l'allineamento.
- Il Tasso di Veridicità è migliorato dal 57,9% al 67,3% sul dataset Visual-Idk.
- Il probing interno mostra che il modello riconosce genuinamente i propri confini.
- La ricerca è pubblicata su arXiv con ID 2604.26419.
Entità
—