ARTFEED — Contemporary Art Intelligence

MMGuard: Protezione Proattiva contro il Fine-Tuning Non Autorizzato di LVLM

ai-technology · 2026-05-16

I ricercatori propongono MMGuard, un metodo per proteggere i dati multimodali dal fine-tuning non autorizzato di Large Vision-Language Models (LVLM). A differenza degli approcci post-hoc come il machine unlearning e le watermark, MMGuard genera proattivamente esempi non apprendibili iniettando perturbazioni impercettibili all'uomo che sfruttano le dinamiche di apprendimento dei LVLM. Queste perturbazioni minimizzano la perdita di training, creando una scorciatoia di ottimizzazione che induce i modelli a sovradattarsi al rumore, degradando le prestazioni quando le perturbazioni sono assenti durante l'inferenza. L'approccio affronta i rischi di copyright e privacy derivanti dallo scraping e dall'addestramento non autorizzati su dati web multimodali.

Fatti principali

  • MMGuard protegge i dati multimodali dal fine-tuning non autorizzato di LVLM.
  • Genera esempi non apprendibili con perturbazioni impercettibili all'uomo.
  • Le perturbazioni sfruttano le dinamiche di apprendimento dei LVLM minimizzando la perdita di training.
  • Questo crea una scorciatoia di ottimizzazione, causando sovradattamento al rumore.
  • Le prestazioni degradano quando le perturbazioni sono assenti durante l'inferenza.
  • Le contromisure esistenti come machine unlearning e watermark sono post-hoc.
  • Lo scraping e l'addestramento non autorizzati comportano rischi di copyright e privacy.
  • MMGuard è un meccanismo di difesa proattivo.

Entità

Fonti