ARTFEED — Contemporary Art Intelligence

Gli errori di previsione dell'IA sono altamente correlati tra LLM, secondo uno studio

ai-technology · 2026-05-06

Un recente studio pubblicato su arXiv (2605.00844) indica che i modelli linguistici di grandi dimensioni (LLM) di diversi sviluppatori mostrano errori di previsione significativamente correlati, compromettendo l'indipendenza necessaria per un'efficace intelligenza collettiva. Nello Studio 1, GPT-4o, Claude e Gemini hanno mostrato una correlazione media degli errori a coppie di r = 0,77 (p < 0,001) su 568 domande di previsione binaria risolte, anche dopo aver rimosso potenziali domande trapelate (r = 0,78). Lo Studio 2 ha indagato se questo bias condiviso influenzasse le previsioni umane collettive, osservando cambiamenti nelle previsioni della comunità dopo il lancio di ChatGPT nel novembre 2022. Sebbene le previsioni della comunità si allineassero con quelle degli LLM (r = 0,20, p = 0,007), il cambiamento osservato è stato attribuito a un aggiornamento razionale verso il risultato effettivo, indicando nessun trasferimento di bias dall'IA ai previsori umani. Questi risultati mettono in dubbio la convinzione che combinare più previsioni di LLM minimizzi gli errori, poiché le loro inesattezze sono interdipendenti.

Fatti principali

  • Studio pubblicato su arXiv con ID 2605.00844
  • Testati GPT-4o, Claude e Gemini su 568 domande di previsione binaria risolte
  • Correlazione media degli errori a coppie r = 0,77 (p < 0,001)
  • Correlazione rimasta alta (r = 0,78) dopo aver escluso domande probabilmente trapelate
  • Lo Studio 2 ha monitorato i cambiamenti nelle previsioni della comunità in occasione del lancio di ChatGPT (novembre 2022)
  • Le previsioni della comunità si sono mosse nella direzione prevista dagli LLM (r = 0,20, p = 0,007)
  • Il cambiamento è stato completamente spiegato da un aggiornamento razionale verso il risultato reale
  • Nessuna evidenza di trasferimento di bias dall'IA ai previsori umani

Entità

Istituzioni

  • arXiv

Fonti