ARTFEED — Contemporary Art Intelligence

MultiEmo-Bench: Nuovo benchmark per l'analisi multi-etichetta delle emozioni visive nei MLLM

publication · 2026-05-16

I ricercatori hanno introdotto MultiEmo-Bench, un dataset di benchmark per l'analisi multi-etichetta delle emozioni visive, progettato per valutare i modelli linguistici multimodali di grandi dimensioni (MLLM) nella previsione delle emozioni suscitate dalle immagini. Recenti studi sugli utenti hanno rivelato che gli esseri umani talvolta preferiscono le previsioni dei MLLM rispetto alle etichette dei dataset esistenti, cosa che gli autori attribuiscono a schemi di annotazione subottimali in cui gli annotatori giudicano una sola emozione candidata per immagine. Questo approccio a etichetta singola non riesce a catturare che una singola immagine può suscitare più emozioni con intensità variabili, sottovalutando potenzialmente le capacità dei MLLM. MultiEmo-Bench colma questa lacuna fornendo un benchmark multi-etichetta per una valutazione completa. L'articolo è disponibile su arXiv con ID 2605.14635.

Fatti principali

  • MultiEmo-Bench è un benchmark multi-etichetta per l'analisi delle emozioni visive nei MLLM.
  • Studi recenti mostrano che gli umani possono preferire le previsioni dei MLLM rispetto alle etichette dei dataset esistenti.
  • I dataset esistenti utilizzano uno schema di annotazione a etichetta singola, limitando la valutazione.
  • Una singola immagine può suscitare più emozioni con intensità variabili.
  • Il benchmark mira a valutare correttamente le capacità dei MLLM nella previsione delle emozioni.
  • L'articolo è pubblicato su arXiv con ID 2605.14635.

Entità

Istituzioni

  • arXiv

Fonti