ARTFEED — Contemporary Art Intelligence

Il Framework SIVR Utilizza la Varianza Interna Sequenziale per Rilevare Allucinazioni nei Modelli Linguistici di Grandi Dimensioni

ai-technology · 2026-04-20

È stato sviluppato un nuovo framework supervisionato chiamato Sequential Internal Variance Representation (SIVR) per rilevare allucinazioni nei modelli linguistici di grandi dimensioni. A differenza dei metodi precedenti che si basano su ipotesi rigide riguardo all'evoluzione degli stati nascosti attraverso i livelli, SIVR opera su un principio più fondamentale: l'incertezza si manifesta come dispersione o varianza nelle rappresentazioni interne attraverso i livelli. Questo approccio rende il metodo indipendente dal modello e dal compito. SIVR sfrutta caratteristiche token-wise e layer-wise derivate dagli stati nascosti, affrontando le limitazioni delle tecniche che si concentrano esclusivamente sugli ultimi token o sui token medi e soffrono di perdita di informazioni. Aggregando la sequenza completa delle caratteristiche di varianza per token, il framework apprende modelli temporali indicativi di errori fattuali. Il metodo è stato dettagliato in un articolo pubblicato su arXiv con l'identificatore 2604.15741v1, annunciato come cross submission. La stima dell'incertezza attraverso gli stati interni del modello è una strada promettente per identificare output inaffidabili dei modelli linguistici di grandi dimensioni. La ricerca affronta carenze critiche negli approcci esistenti che dipendono da ipotesi specifiche su come dovrebbero comportarsi gli stati nascosti.

Fatti principali

  • SIVR è un framework supervisionato per il rilevamento di allucinazioni nei modelli linguistici di grandi dimensioni
  • Sfrutta caratteristiche token-wise e layer-wise derivate dagli stati nascosti
  • Il metodo presuppone che l'incertezza si manifesti come dispersione/varianza nelle rappresentazioni interne attraverso i livelli
  • Ciò rende SIVR indipendente dal modello e dal compito
  • Aggrega sequenze complete di caratteristiche di varianza per token per apprendere modelli temporali
  • L'approccio affronta le limitazioni dei metodi che si concentrano solo sugli ultimi token o sui token medi
  • La ricerca è stata pubblicata su arXiv con l'identificatore 2604.15741v1
  • La stima dell'incertezza attraverso gli stati interni è promettente per rilevare allucinazioni nei modelli linguistici di grandi dimensioni

Entità

Istituzioni

  • arXiv

Fonti