ARPM: Un Framework di Memoria Temporale per la Coerenza della Persona nei LLM
Un nuovo framework chiamato ARPM affronta il problema del drift della persona e della perdita di fatti nei modelli linguistici di grandi dimensioni durante interazioni a lungo termine. ARPM separa la conoscenza statica dalla memoria dinamica del dialogo, utilizzando recupero vettoriale, BM25, fusione RRF, riordinamento dual-temporale e lettura cronologica delle evidenze. Tratta la continuità come un problema di governance piuttosto che codificarla nei pesi del modello. Gli esperimenti includono un'impostazione di QA a 50 round che confronta rapporti segnale-rumore di 1:5 e 1:200+.
Fatti principali
- ARPM è un framework esterno di governance della memoria temporale per dialoghi a lungo termine.
- Separa la memoria della conoscenza statica dalla memoria dell'esperienza dialogica dinamica.
- Le tecniche includono recupero vettoriale, BM25, fusione RRF, riordinamento dual-temporale e lettura cronologica delle evidenze.
- ARPM tratta la continuità come un problema di governance tracciabile, verificabile e trasferibile.
- Gli esperimenti includono un'impostazione di domanda-risposta a 50 round.
- Vengono confrontati rapporti segnale-rumore di 1:5 e 1:200+.
- Il framework mira ad affrontare la perdita di fatti, la confusione della timeline, il drift della persona e la ridotta stabilità.
- È progettato per basi di conoscenza ad alto rumore, cancellazione del contesto e trasferimento tra modelli.
Entità
Istituzioni
- arXiv