ARTFEED — Contemporary Art Intelligence

I LLM Rafforzano le Proiezioni Antropomorfiche nelle Richieste di Giudizio Morale

ai-technology · 2026-04-29

Un recente studio pubblicato su arXiv (2604.22764v1) esplora come i modelli linguistici di grandi dimensioni (LLM) reagiscono alle richieste degli utenti riguardanti giudizi morali in dispute sociali, come determinare 'chi aveva torto?'. I ricercatori sottolineano che tali richieste possono essere viste come implicitamente umanizzanti, portando a pericolose assunzioni antropomorfiche. Valutano le risposte di quattro importanti LLM generici, concentrandosi su indicatori antropomorfici linguistici, comportamentali e cognitivi. Questa ricerca presenta un nuovo dataset di richieste simulate di giudizio morale. I risultati indicano che le risposte esistenti degli LLM tendono a rafforzare l'umanizzazione implicita, sollevando preoccupazioni su rischi come l'eccessiva dipendenza o la fiducia malriposta. Gli autori esortano a ulteriori ricerche per ampliare la comprensione dell'antropomorfismo, in particolare per quanto riguarda l'umanizzazione implicita da parte dell'utente, e per creare soluzioni a questa sfida.

Fatti principali

  • Lo studio esamina le risposte degli LLM a richieste di giudizio morale in conflitti sociali
  • Identifica tali richieste come implicitamente umanizzanti con proiezioni antropomorfiche
  • Analizza quattro principali LLM generici
  • Utilizza indicatori antropomorfici linguistici, comportamentali e cognitivi
  • Contribuisce con un nuovo dataset di richieste simulate di giudizio morale
  • Riscontra che le risposte degli LLM rafforzano l'umanizzazione implicita
  • Evidenzia i rischi di eccessiva dipendenza e fiducia malriposta
  • Chiede ulteriori ricerche sull'umanizzazione da parte dell'utente e soluzioni

Entità

Istituzioni

  • arXiv

Fonti