ARTFEED — Contemporary Art Intelligence

Il Consolidamento della Memoria degli LLM Degrada le Prestazioni nei Compiti ARC-AGI

ai-technology · 2026-05-14

Uno studio su arXiv (2605.12978) rivela che il consolidamento continuo della memoria da parte degli LLM può degradare le prestazioni. I ricercatori hanno scoperto che, mentre gli aggiornamenti iniziali della memoria migliorano l'utilità, un ulteriore consolidamento porta a un degrado, talvolta al di sotto di una baseline senza memoria. GPT-5.4 ha fallito nel 54% dei problemi ARC-AGI che aveva precedentemente risolto senza memoria, attribuendo la regressione alla fase di consolidamento.

Fatti principali

  • Il paper arXiv 2605.12978 esamina il consolidamento della memoria degli LLM
  • Il consolidamento prima migliora poi degrada l'utilità della memoria
  • GPT-5.4 fallisce nel 54% dei problemi ARC-AGI precedentemente risolti dopo il consolidamento
  • La regressione è attribuita alla fase di consolidamento, non all'esperienza sottostante

Entità

Istituzioni

  • arXiv

Fonti