Pregiudizi del LAION-Aesthetics Predictor contro LGBTQ+ e uomini nella curation delle immagini
Uno studio recente disponibile su arXiv (2601.09896) esamina il LAION-Aesthetics Predictor (LAP), un modello progettato per la valutazione estetica che aiuta nella curation di dataset per l'addestramento di sistemi di intelligenza artificiale generativa visiva come Stable Diffusion. I ricercatori hanno analizzato l'influenza del LAP sul LAION-Aesthetics Dataset, composto da circa 1,2 miliardi di immagini provenienti da LAION-5B. Hanno scoperto che il LAP tende a favorire immagini con didascalie che fanno riferimento a donne, trascurando quelle che menzionano uomini o persone LGBTQ+. Inoltre, lo studio ha utilizzato il LAP per valutare altri dataset, scoprendo pregiudizi intrinseci nelle valutazioni estetiche che rispecchiano prospettive culturali limitate. Questi risultati evidenziano preoccupazioni riguardo alla rappresentazione nei modelli di IA generativa e alla potenziale perpetuazione di stereotipi nelle immagini generate dall'IA.
Fatti principali
- Lo studio analizza il LAION-Aesthetics Predictor (LAP)
- Il LAP viene utilizzato per curare il LAION-Aesthetics Dataset (circa 1,2 miliardi di immagini) da LAION-5B
- Il LAP filtra in modo sproporzionato immagini con didascalie che menzionano donne
- Il LAP filtra immagini con didascalie che menzionano uomini o persone LGBTQ+
- Lo studio utilizza tre dataset per l'analisi
- Il LAP è ampiamente utilizzato per addestrare modelli come Stable Diffusion
- I pregiudizi riflettono valori culturali ristretti nel giudizio estetico
- La ricerca è pubblicata su arXiv (2601.09896)
Entità
Istituzioni
- arXiv
- LAION
- Stable Diffusion