ARTFEED — Contemporary Art Intelligence

Allucinazioni LLM trovate in 146.932 citazioni scientifiche nel 2025

ai-technology · 2026-05-11

Uno studio che ha esaminato 111 milioni di riferimenti in 2,5 milioni di articoli su arXiv, bioRxiv, SSRN e PubMed Central rivela un netto aumento di citazioni inesistenti a seguito dell'adozione diffusa dei LLM. I ricercatori stimano 146.932 citazioni allucinate nel solo 2025, con errori concentrati in settori con rapida adozione dell'IA, articoli che mostrano pattern di scrittura assistita dall'IA e tra team di autori piccoli o all'inizio della carriera. I riferimenti allucinati attribuiscono in modo sproporzionato il merito a studiosi già affermati e di sesso maschile, suggerendo che gli errori generati dai LLM possano rafforzare i pregiudizi esistenti.

Fatti principali

  • 111 milioni di riferimenti esaminati
  • 2,5 milioni di articoli analizzati
  • Fonti: arXiv, bioRxiv, SSRN, PubMed Central
  • 146.932 citazioni allucinate stimate nel 2025
  • Errori più comuni in settori con rapida adozione dell'IA
  • Errori collegati a firme linguistiche di scrittura assistita dall'IA
  • Errori più frequenti tra team di autori piccoli e all'inizio della carriera
  • Le citazioni allucinate favoriscono studiosi affermati e di sesso maschile

Entità

Istituzioni

  • arXiv
  • bioRxiv
  • SSRN
  • PubMed Central

Fonti