Agenti LLM con memoria aumentata affrontano il collo di bottiglia dell'apprendimento continuo nel recupero
Un nuovo studio su arXiv (2604.27003) rivela che gli agenti basati su grandi modelli linguistici (LLM) con memoria aumentata non sfuggono al dilemma stabilità-plasticità, ma lo spostano all'accesso alla memoria. I ricercatori introducono un framework (k,v) per separare la rappresentazione dell'esperienza e l'organizzazione nella memoria esterna. Esperimenti in ALFWorld e BabyAI mostrano che le memorie procedurali astratte si trasferiscono in modo più affidabile delle traiettorie dettagliate, e il trasferimento negativo danneggia in modo sproporzionato i casi difficili. Viene anche esaminata un'organizzazione della memoria più granulare.
Fatti principali
- Il paper arXiv 2604.27003 studia l'apprendimento continuo in agenti LLM con memoria aumentata.
- Il dilemma stabilità-plasticità riemerge a livello di memoria in contesti di finestre di contesto limitate.
- Un framework (k,v) separa la rappresentazione dell'esperienza e l'organizzazione per il recupero.
- Esperimenti condotti in ambienti ALFWorld e BabyAI.
- Le memorie procedurali astratte si trasferiscono in modo più affidabile delle traiettorie dettagliate.
- Il trasferimento negativo danneggia in modo sproporzionato i casi difficili.
- Viene esplorata un'organizzazione della memoria più granulare.
- Il paper è categorizzato come cross-type su arXiv.
Entità
Istituzioni
- arXiv