I chatbot AI mostrano un pregiudizio individualista occidentale tra le culture
Un nuovo studio da arXiv (2604.22153) rivela che i principali sistemi di IA—Claude Sonnet 4.5, GPT-5.4 e Gemini 2.5 Flash—forniscono costantemente consigli di stampo individualista occidentale, anche a utenti provenienti da società collettiviste. I ricercatori hanno testato dieci dilemmi personali in 10 paesi, 5 continenti e 7 lingue, valutando 840 risposte confrontandole con i dati della World Values Survey Wave 7. Il divario medio tra i consigli dell'IA e i valori locali è stato di +0,76 su una scala da 1 a 5 (t=15,65, p<0,001), con le maggiori discrepanze in Nigeria (+1,85) e India (+0,82). Il Giappone è stata l'unica eccezione, dove l'IA ha trattato gli utenti come più orientati al gruppo rispetto ai valori locali effettivi. I risultati sollevano questioni etiche sui pregiudizi culturali nei sistemi di IA distribuiti a livello globale.
Fatti principali
- Lo studio ha testato Claude Sonnet 4.5, GPT-5.4 e Gemini 2.5 Flash
- Dieci dilemmi personali reali utilizzati in 10 paesi e 7 lingue
- Totale di 840 risposte valutate confrontate con la World Values Survey Wave 7
- Divario medio di +0,76 su una scala da 1 a 5 (t=15,65, p<0,001)
- Maggiori divari in Nigeria (+1,85) e India (+0,82)
- Il Giappone è stato l'unico paese in cui i consigli dell'IA erano più collettivisti dei valori locali
Entità
Istituzioni
- arXiv
- World Values Survey
Luoghi
- Nigeria
- India
- Japan