ARTFEED — Contemporary Art Intelligence

Evasione Avversaria di Malware tramite Perturbazioni Vincolate dalla Similarità

ai-technology · 2026-04-25

Un nuovo articolo di ricerca su arXiv (2604.21310) indaga se gli aggressori possano generare campioni di malware avversari che eludono il rilevamento basato su deep learning, evitando al contempo la rilevazione da parte dei sistemi di monitoraggio della deriva. Il metodo proposto crea esempi avversari mirati nello spazio delle caratteristiche standardizzato del classificatore, utilizzando regolarizzatori di similarità per mantenere la similarità distributiva con il malware pulito. L'obiettivo di ottimizzazione bilancia la classificazione errata mirata con la minimizzazione dei segnali di deriva. Lo studio evidenzia le limitazioni critiche dei modelli di deep learning in ambienti non stazionari in cui malware e sistemi di rilevamento si evolvono.

Fatti principali

  • ID articolo: arXiv:2604.21310
  • Tipo di annuncio: cross
  • Si concentra sull'evasione avversaria nel rilevamento di malware non stazionario
  • Propone perturbazioni vincolate dalla similarità per minimizzare i segnali di deriva
  • Utilizza uno spazio delle caratteristiche standardizzato per esempi avversari mirati
  • Bilancia la classificazione errata con la minimizzazione del segnale di deriva
  • Affronta le limitazioni del mondo reale dei modelli di deep learning

Entità

Istituzioni

  • arXiv

Fonti