Ricerca sull'IA sfida la 'saggezza della folla' nei sistemi multi-agente
Un recente preprint su arXiv (2604.27274) contesta la convinzione che la collaborazione tra agenti IA sia migliorata dalla 'saggezza della folla'. Gli autori introducono il concetto di 'paradosso del consenso', indicando che gli sciami di agenti tendono a privilegiare il consenso interno rispetto all'accuratezza esterna. La loro ricerca, che include 36 esperimenti con 12.804 traiettorie su tre benchmark (GAIA, Multi-Challenge, SWE-bench), dimostra la 'legge dell'inversa saggezza': negli sciami dominati dalla parentela, l'inclusione di agenti logici stabilizza in realtà traiettorie errate. Inoltre, l'introduzione di più audit logici porta a una 'saturazione logica', dove l'entropia interna raggiunge lo zero e gli errori fattuali diventano assoluti. Lo studio valuta tre modelli all'avanguardia: Gemini 3.1 Pro, Claude Sonnet 4.6 e GP.
Fatti principali
- arXiv:2604.27274v1 sfida l'assunzione della 'saggezza della folla' nei sistemi multi-agente.
- Il paradosso del consenso descrive sciami agentici che privilegiano l'accordo interno sulla verità.
- 36 esperimenti con 12.804 traiettorie sono stati condotti su GAIA, Multi-Challenge e SWE-bench.
- La legge dell'inversa saggezza afferma che aggiungere agenti logici a sciami dominati dalla parentela aumenta la stabilità delle traiettorie errate.
- La saturazione logica si verifica quando l'entropia interna raggiunge zero ma l'errore fattuale raggiunge l'unità.
- Sono stati valutati tre modelli SOTA: Gemini 3.1 Pro, Claude Sonnet 4.6 e GP.
Entità
Istituzioni
- arXiv