Allucinazioni LLM trovate in 146.932 citazioni scientifiche nel 2025
Uno studio che ha esaminato 111 milioni di riferimenti in 2,5 milioni di articoli su arXiv, bioRxiv, SSRN e PubMed Central rivela un netto aumento di citazioni inesistenti a seguito dell'adozione diffusa dei LLM. I ricercatori stimano 146.932 citazioni allucinate nel solo 2025, con errori concentrati in settori con rapida adozione dell'IA, articoli che mostrano pattern di scrittura assistita dall'IA e tra team di autori piccoli o all'inizio della carriera. I riferimenti allucinati attribuiscono in modo sproporzionato il merito a studiosi già affermati e di sesso maschile, suggerendo che gli errori generati dai LLM possano rafforzare i pregiudizi esistenti.
Fatti principali
- 111 milioni di riferimenti esaminati
- 2,5 milioni di articoli analizzati
- Fonti: arXiv, bioRxiv, SSRN, PubMed Central
- 146.932 citazioni allucinate stimate nel 2025
- Errori più comuni in settori con rapida adozione dell'IA
- Errori collegati a firme linguistiche di scrittura assistita dall'IA
- Errori più frequenti tra team di autori piccoli e all'inizio della carriera
- Le citazioni allucinate favoriscono studiosi affermati e di sesso maschile
Entità
Istituzioni
- arXiv
- bioRxiv
- SSRN
- PubMed Central