Spiegabilità ed Equità nei VLM per la Valutazione del Benessere
Un nuovo studio da arXiv (2604.23786) indaga l'equità e la spiegabilità nei modelli Vision-Language (VLM) per la valutazione del benessere e la previsione della depressione. I ricercatori hanno valutato i modelli su dataset di laboratorio (AFAR-BSFT) e naturalistici (E-DAIC), riscontrando significative disparità di performance: Phi3.5-Vision ha raggiunto l'80,4% di accuratezza su E-DAIC, mentre Qwen2-VL ha ottenuto solo il 33,9%. Entrambi i modelli hanno mostrato una tendenza a sovrastimare la depressione su AFAR-BSFT, sollevando preoccupazioni sull'affidabilità diagnostica e l'equità demografica. Il lavoro evidenzia l'intersezione poco esplorata tra Intelligenza Artificiale Spiegabile (XAI) e modelli fondazionali multimodali nel monitoraggio clinico della salute mentale.
Fatti principali
- Lo studio indaga l'equità e la spiegabilità nei VLM per la valutazione del benessere
- Valutati su dataset di laboratorio (AFAR-BSFT) e naturalistici (E-DAIC)
- Phi3.5-Vision ha raggiunto l'80,4% di accuratezza su E-DAIC
- Qwen2-VL ha ottenuto il 33,9% di accuratezza su E-DAIC
- Entrambi i modelli hanno sovrastimato la depressione su AFAR-BSFT
- L'applicazione di XAI ai VLM per la previsione della depressione è poco esplorata
- Ricerca pubblicata su arXiv (2604.23786)
- Preoccupazioni su trasparenza e bias nell'implementazione clinica dei VLM
Entità
Istituzioni
- arXiv