ARTFEED — Contemporary Art Intelligence

Ragionamento Simbolico dei Transformer Limitato dal Collasso Rappresentazionale

ai-technology · 2026-04-25

Un nuovo studio su arXiv indaga perché i modelli transformer decoder-only faticano con il ragionamento simbolico astratto, in particolare problemi di logica proposizionale forniti in contesto. Lavori precedenti hanno scoperto che i modelli non riescono a generalizzare a problemi con nomi di variabili mai visti, in parte a causa della difficoltà nel copiare token non visti. La nuova ricerca rivela un fattore aggiuntivo chiave: il collasso rappresentazionale, dove gli unembedding (pesi dell'ultimo strato) dei token non visti convergono a vettori quasi identici durante l'addestramento. Questo collasso rende difficile per il modello distinguere più variabili non viste, specialmente quando i parametri di embedding e unembedding sono condivisi. Il risultato fornisce una spiegazione meccanicistica per l'efficacia di interventi euristici come 'active forgetting', che resetta periodicamente gli embedding dei token. Lo studio combina analisi teorica con evidenze empiriche, offrendo approfondimenti sulle limitazioni delle attuali architetture transformer nei compiti di ragionamento simbolico.

Fatti principali

  • Lo studio indaga la capacità dei modelli transformer decoder-only di eseguire ragionamento simbolico astratto
  • Si concentra sulla risoluzione di problemi di logica proposizionale forniti in contesto
  • Lavori precedenti hanno mostrato che i modelli non generalizzano a problemi con nomi di variabili non visti
  • Una ragione era la difficoltà nel copiare token non visti
  • Nuova scoperta: collasso rappresentazionale degli unembedding dei token non visti
  • Gli unembedding dei token non visti collassano a vettori quasi identici durante l'addestramento
  • Il collasso rende difficile distinguere più variabili non viste
  • Fornisce una spiegazione meccanicistica per l'euristica 'active forgetting'
  • Combina evidenze teoriche ed empiriche

Entità

Istituzioni

  • arXiv

Fonti