EquiMem: Calibrazione Game-Theoretic per la Memoria Condivisa nel Dibattito Multi-Agente
Un nuovo articolo su arXiv (2605.09278) introduce EquiMem, un meccanismo per calibrare la memoria condivisa nei sistemi di dibattito multi-agente (MAD). Gli autori identificano una vulnerabilità per cui una singola voce di memoria corrotta può contaminare il ragionamento, e le salvaguardie esistenti basate sulla validazione tramite LLM condividono le stesse modalità di fallimento. Formulano l'aggiornamento della memoria come un gioco di memoria a fiducia zero, dove nessun agente è considerato onesto, e l'equilibrio del gioco indica la fiducia ottimale nella memoria. EquiMem quantifica ogni aggiornamento algoritmicamente utilizzando le query di recupero e i percorsi di attraversamento degli agenti come prova, senza richiedere giudizi LLM. Questo meccanismo di calibrazione al momento dell'inferenza colma il divario nelle dinamiche cross-agente di MAD.
Fatti principali
- Articolo pubblicato su arXiv con ID 2605.09278
- Titolo: EquiMem: Calibrare la Memoria Condivisa nel Dibattito Multi-Agente tramite Equilibrio Game-Theoretic
- I sistemi di dibattito multi-agente usano memoria condivisa per ragionamenti a lungo termine
- Una singola voce di memoria corrotta può contaminare il ragionamento
- Le salvaguardie esistenti usano euristiche o validazione basata su LLM
- La validazione basata su LLM condivide le stesse modalità di fallimento del problema originale
- EquiMem formula l'aggiornamento della memoria come un gioco di memoria a fiducia zero
- Nessun agente è considerato onesto nella formulazione del gioco
- L'equilibrio del gioco funge da indicatore della fiducia ottimale nella memoria
- EquiMem utilizza le query di recupero e i percorsi di attraversamento degli agenti come prova
- Nessun giudizio LLM viene richiesto in EquiMem
- EquiMem è un meccanismo di calibrazione al momento dell'inferenza
Entità
Istituzioni
- arXiv