HyMem: Architettura di Memoria Ibrida per Agenti LLM
I ricercatori propongono HyMem, un'architettura di memoria ibrida per agenti basati su grandi modelli linguistici (LLM) che affronta le inefficienze nei dialoghi estesi. I metodi esistenti presentano un compromesso tra efficienza ed efficacia: la compressione perde dettagli critici, mentre la conservazione del testo grezzo aggiunge overhead. HyMem consente una pianificazione dinamica su richiesta attraverso rappresentazioni di memoria a granularità multipla, ispirate all'economia cognitiva. Adotta uno schema di archiviazione a doppia granularità con un meccanismo di recupero dinamico a due livelli. L'articolo è disponibile su arXiv con identificatore 2602.13933.
Fatti principali
- HyMem è un'architettura di memoria ibrida per agenti LLM.
- Affronta le inefficienze nei dialoghi estesi.
- Gli approcci esistenti bilanciano efficienza ed efficacia.
- La compressione della memoria rischia di perdere dettagli critici.
- La conservazione del testo grezzo introduce overhead computazionale.
- HyMem utilizza rappresentazioni di memoria a granularità multipla.
- È ispirato al principio dell'economia cognitiva.
- L'articolo è su arXiv: 2602.13933.
Entità
Istituzioni
- arXiv