ARTFEED — Contemporary Art Intelligence

Rilevamento di Deepfake Audiovisivi tramite Crowdsourcing Mostra i Limiti Umani

ai-technology · 2026-05-07

Una recente indagine pubblicata su arXiv (2605.04797) esplora come i lavoratori del crowdsourcing identificano i deepfake audiovisivi. I ricercatori hanno condotto due studi paralleli di crowdsourcing su Prolific, utilizzando i dataset AV-Deepfake1M e Trusted Media Challenge (TMC), che includevano 48 video da ciascun dataset (per un totale di 96) e hanno raccolto 960 valutazioni (10 per ogni video). I risultati indicano che i lavoratori del crowdsourcing raramente identificano erroneamente video autentici come alterati, ma trascurano numerose manipolazioni, mostrando un consenso limitato tra i video. Sebbene aggregare più valutazioni per video migliori il segnale di autenticità, non recupera le manipolazioni trascurate. Questo studio sottolinea l'affidabilità delle valutazioni umane nel contrastare la disinformazione mentre i deepfake diventano più convincenti e semplici da creare.

Fatti principali

  • Studio pubblicato su arXiv con identificatore 2605.04797
  • Si concentra sul rilevamento di deepfake audiovisivi da parte di lavoratori del crowdsourcing
  • Utilizza i dataset AV-Deepfake1M e Trusted Media Challenge (TMC)
  • Due studi di crowdsourcing abbinati condotti su Prolific
  • 48 video campionati per dataset, 96 in totale
  • 960 giudizi raccolti, 10 per video
  • I lavoratori del crowdsourcing raramente classificano erroneamente video autentici come manipolati
  • Molte manipolazioni vengono perse dai lavoratori del crowdsourcing
  • L'accordo tra i lavoratori rimane limitato tra i video
  • Aggregare più giudizi stabilizza il segnale di autenticità ma non può recuperare le manipolazioni perse

Entità

Istituzioni

  • arXiv
  • Prolific
  • AV-Deepfake1M
  • Trusted Media Challenge (TMC)

Fonti