ARTFEED — Contemporary Art Intelligence

Watermarking tramite avvelenamento del dataset per l'apprendimento contrastivo

ai-technology · 2026-05-06

Uno studio recente pubblicato su arXiv (2605.01834) esamina approfonditamente gli attacchi backdoor tramite avvelenamento dei dati nell'apprendimento contrastivo (CL), scoprendo diverse carenze tra cui inadeguata adattabilità ai dataset, bassa efficacia, portabilità limitata e assunzioni che richiedono conoscenza dei compiti downstream. I ricercatori utilizzano la divergenza statistica dei campioni trigger dai campioni puliti come watermark per proteggere la proprietà intellettuale del dataset, aumentando i tassi di successo attraverso la verifica statistica tramite una metrica di densità unificata. Introducono un approccio di watermarking multilivello che si adatta alle rappresentazioni a livello di feature.

Fatti principali

  • arXiv:2605.01834v1
  • L'apprendimento contrastivo riduce i costi di annotazione tramite segnali di supervisione auto-derivati
  • I dataset CL interni su larga scala sono irrealizzabili
  • I modelli CL sono vulnerabili agli attacchi backdoor tramite avvelenamento dei dati
  • Limitazioni: scarsa adattabilità ai dataset, bassi tassi di successo, portabilità limitata, assunzioni restrittive
  • I campioni trigger mostrano una divergenza statistica distinguibile rispetto ai campioni puliti
  • Riproposizione come watermark per la protezione della proprietà intellettuale del dataset
  • Schema di watermarking multilivello proposto

Entità

Istituzioni

  • arXiv

Fonti