I medici chiedono spiegabilità nella diagnosi medica basata sull'IA
Uno studio incentrato sull'utente pubblicato su arXiv rivela che l'88% di 33 medici intervistati considera importante che l'IA spieghi le sue diagnosi in ambito di imaging medico, con il 64% fortemente d'accordo. La ricerca ha confrontato metodi di IA spiegabile (XAI) testuali, visivi e multimodali, scoprendo che una combinazione di bounding box e report supera gli altri in termini di comprensibilità, completezza, velocità e applicabilità. Preoccupante, il 50% dei partecipanti ha riposto fiducia in diagnosi false dell'IA, evidenziando i rischi nell'adozione clinica. Lo studio sottolinea il divario tra le prestazioni dell'IA e la fiducia pratica, enfatizzando la necessità di una spiegazione ottimale e della visualizzazione dei processi decisionali.
Fatti principali
- Studio pubblicato su arXiv (2605.02903) sulla spiegabilità dell'IA nell'imaging medico
- Sondaggio su 33 medici: l'88% concorda che l'IA dovrebbe spiegare la diagnosi, il 64% fortemente d'accordo
- La combinazione di bounding box e report è stata valutata come la migliore tra i metodi XAI
- Il 50% dei partecipanti ha riposto fiducia in diagnosi false dell'IA
- Analisi comparativa di metodi XAI testuali, visivi e multimodali
- I sistemi di IA sono raramente utilizzati nella pratica nonostante superino gli umani
- Aspetti valutati: comprensibilità, completezza, velocità, applicabilità
- Ricerca condotta dagli autori di arXiv:2605.02903
Entità
Istituzioni
- arXiv