La gestione del contesto senza perdite migliora le prestazioni dei LLM in contesti lunghi
Una nuova architettura nota come Lossless Context Management (LCM) migliora le prestazioni dei modelli linguistici di grandi dimensioni in compiti con contesto lungo, superando Claude Code. L'agente di codifica Volt, che utilizza LCM, ha superato Claude Code nel benchmark OOLONG su tutte le lunghezze di contesto, da 32K a 1M token, valutato con Opus 4.6. LCM si basa sul paradigma ricorsivo dei Recursive Language Models (RLM) scomponendo la ricorsione simbolica in due meccanismi deterministici gestiti dal motore: la compressione ricorsiva del contesto, che crea un DAG riassuntivo gerarchico con puntatori senza perdite ai messaggi originali, e la partizione ricorsiva dei compiti. I risultati indicano che la manipolazione del contesto ricorsivo può superare le capacità dei LLM tradizionali e degli agenti di codifica avanzati con accesso nativo al file system. Lo studio è disponibile su arXiv con ID 2605.04050.
Fatti principali
- LCM è un'architettura deterministica per la memoria dei LLM
- L'agente potenziato da LCM, Volt, supera Claude Code nel benchmark OOLONG
- Volt utilizza Opus 4.6 per la valutazione
- LCM ottiene punteggi più alti per ogni lunghezza di contesto tra 32K e 1M token
- LCM estende il paradigma ricorsivo dei Recursive Language Models (RLM)
- LCM scompone la ricorsione in compressione ricorsiva del contesto e partizione ricorsiva dei compiti
- La compressione ricorsiva del contesto utilizza un DAG riassuntivo gerarchico con puntatori senza perdite
- Articolo pubblicato su arXiv con ID 2605.04050
Entità
Istituzioni
- arXiv
- Claude Code
- Recursive Language Models (RLMs)