ARTFEED — Contemporary Art Intelligence

Nuovo Metodo AI Distilla il Dibattito Multi-Agente in un Singolo LLM

ai-technology · 2026-04-30

Un nuovo approccio chiamato Agenti Latenti è stato sviluppato dai ricercatori, che consente l'integrazione del dibattito multi-agente in un singolo grande modello linguistico (LLM) dopo l'addestramento. Questo metodo impiega un processo di messa a punto in due fasi che unisce l'apprendimento delle strutture di dibattito con l'internalizzazione, utilizzando una programmazione dinamica delle ricompense e il clipping della lunghezza. I risultati indicano che questi modelli internalizzati funzionano altrettanto bene o meglio dei metodi tradizionali di dibattito multi-agente, raggiungendo questo risultato con fino al 93% in meno di token. Inoltre, la ricerca esplora i meccanismi sottostanti di questa capacità attraverso il steering dell'attivazione, rivelando che l'internalizzazione genera sottospazi specifici per agente—direzioni distinte nello spazio di attivazione che riflettono vari punti di vista degli agenti. Un esempio pratico include l'incorporazione di agenti malevoli nel LLM tramite dibattito internalizzato.

Fatti principali

  • Agenti Latenti è una procedura post-addestramento per il dibattito multi-agente internalizzato
  • Utilizza una pipeline di messa a punto in due fasi con apprendimento della struttura del dibattito e internalizzazione
  • Vengono impiegati programmazione dinamica delle ricompense e clipping della lunghezza
  • I modelli internalizzati eguagliano o superano le prestazioni del dibattito multi-agente esplicito
  • Fino al 93% in meno di token utilizzati rispetto al dibattito esplicito
  • Il steering dell'attivazione rivela sottospazi specifici per agente nello spazio di attivazione
  • Un'applicazione pratica prevede l'instillazione di agenti malevoli nel LLM
  • La ricerca è pubblicata su arXiv con ID 2604.24881

Entità

Istituzioni

  • arXiv

Fonti