ARTFEED — Contemporary Art Intelligence

Spiegabilità ed Equità nei VLM per la Valutazione del Benessere

ai-technology · 2026-04-29

Un nuovo studio da arXiv (2604.23786) indaga l'equità e la spiegabilità nei modelli Vision-Language (VLM) per la valutazione del benessere e la previsione della depressione. I ricercatori hanno valutato i modelli su dataset di laboratorio (AFAR-BSFT) e naturalistici (E-DAIC), riscontrando significative disparità di performance: Phi3.5-Vision ha raggiunto l'80,4% di accuratezza su E-DAIC, mentre Qwen2-VL ha ottenuto solo il 33,9%. Entrambi i modelli hanno mostrato una tendenza a sovrastimare la depressione su AFAR-BSFT, sollevando preoccupazioni sull'affidabilità diagnostica e l'equità demografica. Il lavoro evidenzia l'intersezione poco esplorata tra Intelligenza Artificiale Spiegabile (XAI) e modelli fondazionali multimodali nel monitoraggio clinico della salute mentale.

Fatti principali

  • Lo studio indaga l'equità e la spiegabilità nei VLM per la valutazione del benessere
  • Valutati su dataset di laboratorio (AFAR-BSFT) e naturalistici (E-DAIC)
  • Phi3.5-Vision ha raggiunto l'80,4% di accuratezza su E-DAIC
  • Qwen2-VL ha ottenuto il 33,9% di accuratezza su E-DAIC
  • Entrambi i modelli hanno sovrastimato la depressione su AFAR-BSFT
  • L'applicazione di XAI ai VLM per la previsione della depressione è poco esplorata
  • Ricerca pubblicata su arXiv (2604.23786)
  • Preoccupazioni su trasparenza e bias nell'implementazione clinica dei VLM

Entità

Istituzioni

  • arXiv

Fonti