Deep Reasoning: Meta-cognizione Strutturata per Agenti LLM
Un recente articolo su arXiv presenta Deep Reasoning, una tecnica innovativa a tempo di inferenza che crea strutture specifiche per compiti per agenti LLM utilizzando meta-raziocinio strutturato. Questo approccio impiega un linguaggio formale per descrivere il meta-raziocinio come scomposizioni eseguibili che coinvolgono inferenza associativa, calcolo formale e risoluzione ricorsiva di sottoproblemi. Codificando i principi di scomposizione come esempi in-context, facilita la creazione di scaffold durante il test. Questo metodo affronta la rigidità degli agenti LLM esistenti, che spesso si basano su strategie di ragionamento fisse. A differenza degli umani, che passano fluidamente tra stili di ragionamento—come pianificare, eseguire e rivedere—gli agenti LLM faticano a modificare i loro schemi di ragionamento. Deep Reasoning consente agli agenti di costruire scaffold adattabili per ogni compito. L'articolo è accessibile su arXiv con ID 2605.11388.
Fatti principali
- Deep Reasoning è un approccio a tempo di inferenza per costruire scaffold specifici per compiti attraverso meta-raziocinio strutturato.
- Utilizza un linguaggio formale che rappresenta il meta-raziocinio come scomposizioni eseguibili su inferenza associativa, calcolo formale e risoluzione ricorsiva di sottoproblemi.
- I principi di scomposizione sono codificati come esempi in-context che guidano la costruzione dello scaffold durante il test.
- Gli attuali agenti LLM mancano di flessibilità perché i loro scaffold codificano decisioni di ragionamento in anticipo.
- Gli umani risolvono problemi complessi spostandosi flessibilmente tra modalità di ragionamento: pianificare, eseguire, rivedere obiettivi, risolvere ambiguità e applicare procedure formali.
- L'approccio affronta la fragilità degli agenti LLM quando i compiti richiedono di adattare la struttura del ragionamento.
- L'articolo è pubblicato su arXiv con ID 2605.11388.
Entità
Istituzioni
- arXiv