Gli Agenti AI Dovrebbero Usare Strumenti Esterni Solo Quando Epistemicamente Necessario
Un recente position paper pubblicato su arXiv sostiene che gli agenti basati su modelli linguistici di grandi dimensioni dovrebbero utilizzare strumenti esterni solo quando è epistemicamente essenziale—nello specifico, quando un compito non può essere svolto in modo affidabile attraverso il solo ragionamento interno. Gli autori presentano la Teoria dell'Agente (ToA), un quadro concettuale che considera gli agenti come entità che compiono scelte sequenziali riguardo se affrontare l'incertezza internamente o cercare assistenza esterna. Evidenziano modalità di fallimento comuni, come il pensiero eccessivo e l'azione eccessiva, come risultato di decisioni mal calibrate. Questo articolo critica i framework attuali per agenti che trattano l'uso di strumenti come azioni standard, ottimizzando per il completamento dei compiti senza una chiara distinzione tra delega necessaria e non necessaria.
Fatti principali
- 1. Titolo: Position: Agent Should Invoke External Tools ONLY When Epistemically Necessary
- 2. Pubblicato su arXiv con ID 2506.00886
- 3. Tipo di annuncio: replace
- 4. Introduce la Teoria dell'Agente (ToA)
- 5. Sostiene la necessità epistemica come criterio per l'uso di strumenti
- 6. Identifica il pensiero eccessivo e l'azione eccessiva come modalità di fallimento
- 7. Sfida i framework esistenti per agenti
- 8. Si concentra su agenti basati su modelli linguistici di grandi dimensioni
Entità
Istituzioni
- arXiv