La ricerca sull'IA dimostra che gli LLM con assegnazione di persona mostrano ragionamento motivato simile a quello umano
Una recente indagine indica che i grandi modelli linguistici (LLM) dimostrano un ragionamento influenzato dalla motivazione, simile a quello umano, quando vengono assegnate loro distinte persone. Lo studio ha coinvolto otto LLM, comprendenti sia varietà open-source che proprietarie, e si è concentrato su due compiti di ragionamento derivati dalla ricerca con soggetti umani. I ricercatori hanno valutato se l'assegnazione di otto diverse persone basate su quattro caratteristiche politiche e socio-demografiche porterebbe a schemi di ragionamento nell'IA che si allineano con quelle identità. Basandosi su ricerche precedenti che mostrano la vulnerabilità degli LLM ai pregiudizi cognitivi umani, questo studio esamina specificamente come questi modelli possano selettivamente giungere a conclusioni che risuonano con le persone loro assegnate. I framework di test includevano la valutazione dell'accuratezza dei titoli di disinformazione e l'analisi di dati scientifici numerici. Questi risultati sono significativi per comprendere come l'IA possa imitare il ragionamento umano difettoso nelle discussioni su questioni sociali critiche come il cambiamento climatico e la sicurezza dei vaccini. I risultati sono stati pubblicati su arXiv con l'identificatore arXiv:2506.20020v2. Il ragionamento motivato negli esseri umani spesso ostacola il processo decisionale razionale e può intensificare la polarizzazione politica su scala più ampia.
Fatti principali
- I grandi modelli linguistici mostrano ragionamento motivato quando vengono assegnate loro persone
- Sono stati testati otto LLM inclusi modelli open-source e proprietari
- La ricerca ha utilizzato otto persone attraverso quattro attributi politici e socio-demografici
- La sperimentazione ha coinvolto due compiti di ragionamento provenienti da studi con soggetti umani
- I compiti includevano la discernimento della veridicità dei titoli di disinformazione
- I compiti includevano la valutazione di prove scientifiche numeriche
- Lo studio si basa su ricerche precedenti riguardanti la suscettibilità degli LLM ai pregiudizi cognitivi
- La ricerca è stata pubblicata su arXiv con l'identificatore arXiv:2506.20020v2
Entità
Istituzioni
- arXiv