M2CL: Apprendimento Contestuale per Discussioni Multi-LLM
Un nuovo metodo chiamato Multi-LLM Context Learning (M2CL) affronta l'incoerenza delle discussioni nelle Discussioni Multi-Agente (MAD), dove più istanze LLM collaborano tramite discussioni strutturate. Gli attuali metodi MAD soffrono di disallineamento tra i contesti individuali, causando il fallimento degli LLM nel raggiungere soluzioni coerenti. M2CL apprende un generatore di contesto per ogni agente che genera dinamicamente istruzioni contestuali per ogni round attraverso l'organizzazione e il perfezionamento automatici delle informazioni. Ispirato da intuizioni teoriche sull'istruzione contestuale, M2CL addestra i generatori a controllare la coerenza del contesto e le discrepanze di output utilizzando un meccanismo auto-adattivo. Questo aiuta gli LLM a evitare una convergenza prematura sul rumore di maggioranza e a raggiungere progressivamente un consenso corretto. Il metodo viene valutato su benchmark impegnativi.
Fatti principali
- M2CL sta per Multi-LLM Context Learning
- MAD sta per Multi-Agent Discussion
- M2CL affronta l'incoerenza delle discussioni in MAD
- M2CL apprende un generatore di contesto per ogni agente
- I generatori producono dinamicamente istruzioni contestuali per ogni round
- Utilizza un meccanismo auto-adattivo per il controllo della coerenza e delle discrepanze
- Aiuta a evitare una convergenza prematura sul rumore di maggioranza
- Valutato su benchmark impegnativi
Entità
Istituzioni
- arXiv