Il framework UbiQVision quantifica l'incertezza in XAI per l'imaging medico
Un nuovo framework chiamato UbiQVision affronta l'instabilità nelle spiegazioni SHAP per modelli di deep learning utilizzati nell'imaging medico. Il metodo combina il campionamento a posteriori di Dirichlet e la teoria di Dempster-Shafer per quantificare l'incertezza epistemica e aleatoria. Produce mappe di credenza, plausibilità e fusione per migliorare l'affidabilità dell'interpretabilità del modello. La ricerca si rivolge ad architetture sempre più complesse come ResNet, Vision Transformer e CNN ibride, che spesso compromettono la spiegabilità. Lo studio è pubblicato su arXiv con ID 2512.20288.
Fatti principali
- UbiQVision utilizza il campionamento a posteriori di Dirichlet e la teoria di Dempster-Shafer
- Si concentra sulla quantificazione dell'incertezza nelle spiegazioni SHAP
- Affronta l'incertezza epistemica e aleatoria nell'imaging medico
- Produce mappe di credenza, plausibilità e fusione
- Si rivolge a ResNet, Vision Transformer e CNN ibride
- Pubblicato su arXiv con ID 2512.20288
Entità
Istituzioni
- arXiv