La revisione paritaria con IA affronta problemi di sicurezza e affidabilità
Un nuovo articolo su arXiv (2604.23593) analizza i rischi dell'integrazione di modelli linguistici di grandi dimensioni nella revisione paritaria scientifica. Poiché i volumi di invio superano la capacità dei revisori umani, i LLM vengono sempre più utilizzati per riassunti, verifica dei fatti e triage. Tuttavia, le prime implementazioni rivelano gravi modalità di fallimento: iniezioni di prompt nascoste nei manoscritti possono manipolare le revisioni dei LLM verso giudizi positivi ingiustificati, mentre formulazioni avversarie, pregiudizi di autorità e lunghezza, e affermazioni allucinate minano l'affidabilità. Lo studio fornisce un'analisi incentrata su sicurezza e affidabilità, mettendo in dubbio se i revisori IA possano essere considerati affidabili nella comunicazione scientifica.
Fatti principali
- L'articolo arXiv 2604.23593 analizza l'IA nella revisione paritaria
- I volumi di invio superano la capacità dei revisori umani
- I LLM sono utilizzati per riassunti, verifica dei fatti e triage
- Iniezioni di prompt nascoste possono manipolare le revisioni dei LLM
- La formulazione avversaria causa fragilità
- Osservati pregiudizi di autorità e lunghezza
- Le affermazioni allucinate sono una modalità di fallimento
- L'articolo mette in dubbio la fiducia nei revisori IA
Entità
Istituzioni
- arXiv