Gli LLM Raramente Ammettono l'Incertezza in Situazioni Sociali Ambiguo
Un nuovo studio da arXiv (2604.23942) esamina come i modelli linguistici di grandi dimensioni (LLM) gestiscono interazioni sociali ambigue in quattro ambiti: relazioni romantiche nascenti, dinamiche insegnante-studente, gerarchie lavorative e amicizie. I ricercatori hanno testato GPT, Claude e Gemini con 72 risposte. Solo 9 (12,5%) hanno preservato l'incertezza genuina; il restante 87,5% ha prodotto una chiusura interpretativa attraverso allineamento narrativo, inversione, consigli normativi o linguaggio cauto che comunque supportava una singola conclusione. Lo studio ha anche rilevato che le narrazioni in prima persona hanno più spesso suscitato allineamento, mentre i resoconti in terza persona hanno portato a diversi modelli di chiusura. I risultati evidenziano una tendenza degli LLM a risolvere l'ambiguità piuttosto che riconoscerla, sollevando domande sul loro uso nell'interpretazione sociale.
Fatti principali
- Studio su arXiv: 2604.23942
- Quattro ambiti: relazioni romantiche, insegnante-studente, lavoro, amicizie
- 72 risposte da GPT, Claude, Gemini
- Solo 9 (12,5%) hanno preservato l'incertezza
- 87,5% ha prodotto chiusura interpretativa
- Percorsi di chiusura: allineamento narrativo, inversione, consigli normativi, linguaggio cauto
- Resoconti in prima persona hanno più spesso suscitato allineamento
- Resoconti in terza persona hanno portato a diversi modelli di chiusura
Entità
Istituzioni
- arXiv