ARTFEED — Contemporary Art Intelligence

Miglioramento della Capacità di Rifiuto nei Grandi Modelli Visione-Linguaggio

ai-technology · 2026-04-30

I ricercatori hanno sviluppato un framework per migliorare la capacità dei Grandi Modelli Visione-Linguaggio (VLM) di rifiutare di rispondere a domande che superano la loro conoscenza parametrica, riducendo le allucinazioni fattuali. Il metodo prevede la creazione di un dataset 'Visual-Idk' specifico per il modello, utilizzando il probing di consistenza multi-campione per distinguere fatti noti da quelli sconosciuti. I modelli vengono quindi allineati tramite fine-tuning supervisionato e ottimizzazione basata sulle preferenze (DPO, ORPO). Sul dataset Visual-Idk, il Tasso di Veridicità è migliorato dal 57,9% al 67,3%. Il probing interno indica che il modello riconosce genuinamente i propri confini di conoscenza.

Fatti principali

  • I VLM sono soggetti ad allucinazioni fattuali, specialmente in domini di nicchia o specializzati.
  • I modelli attuali hanno una debole capacità di rifiuto per domande che superano la loro conoscenza.
  • Un framework sistematico migliora la capacità di rifiuto per domande sconosciute.
  • Un dataset 'Visual-Idk' specifico per il modello viene curato usando il probing di consistenza multi-campione.
  • Fine-tuning supervisionato e ottimizzazione basata sulle preferenze (DPO, ORPO) sono utilizzati per l'allineamento.
  • Il Tasso di Veridicità è migliorato dal 57,9% al 67,3% sul dataset Visual-Idk.
  • Il probing interno mostra che il modello riconosce genuinamente i propri confini.
  • La ricerca è pubblicata su arXiv con ID 2604.26419.

Entità

Fonti