ARTFEED — Contemporary Art Intelligence

Gli LLM Raramente Ammettono l'Incertezza in Situazioni Sociali Ambiguo

ai-technology · 2026-04-29

Un nuovo studio da arXiv (2604.23942) esamina come i modelli linguistici di grandi dimensioni (LLM) gestiscono interazioni sociali ambigue in quattro ambiti: relazioni romantiche nascenti, dinamiche insegnante-studente, gerarchie lavorative e amicizie. I ricercatori hanno testato GPT, Claude e Gemini con 72 risposte. Solo 9 (12,5%) hanno preservato l'incertezza genuina; il restante 87,5% ha prodotto una chiusura interpretativa attraverso allineamento narrativo, inversione, consigli normativi o linguaggio cauto che comunque supportava una singola conclusione. Lo studio ha anche rilevato che le narrazioni in prima persona hanno più spesso suscitato allineamento, mentre i resoconti in terza persona hanno portato a diversi modelli di chiusura. I risultati evidenziano una tendenza degli LLM a risolvere l'ambiguità piuttosto che riconoscerla, sollevando domande sul loro uso nell'interpretazione sociale.

Fatti principali

  • Studio su arXiv: 2604.23942
  • Quattro ambiti: relazioni romantiche, insegnante-studente, lavoro, amicizie
  • 72 risposte da GPT, Claude, Gemini
  • Solo 9 (12,5%) hanno preservato l'incertezza
  • 87,5% ha prodotto chiusura interpretativa
  • Percorsi di chiusura: allineamento narrativo, inversione, consigli normativi, linguaggio cauto
  • Resoconti in prima persona hanno più spesso suscitato allineamento
  • Resoconti in terza persona hanno portato a diversi modelli di chiusura

Entità

Istituzioni

  • arXiv

Fonti