Coward: Nuovo Rilevamento Proattivo di Backdoor per l'Apprendimento Federato
Un nuovo metodo proattivo di rilevamento di backdoor chiamato Coward è stato proposto per affrontare le limitazioni delle difese esistenti nell'apprendimento federato. Gli attacchi backdoor nell'FL coinvolgono clienti malintenzionati che caricano aggiornamenti avvelenati per compromettere il modello globale. Le attuali tecniche di rilevamento sono passive o proattive, ma entrambe presentano difetti pratici: i metodi passivi falliscono in presenza di distribuzioni di dati non i.i.d. e partecipazione casuale dei clienti, mentre i metodi proattivi soffrono di bias fuori distribuzione a causa della dipendenza dagli effetti di coesistenza delle backdoor. Coward si ispira agli effetti di collisione multi-backdoor, dove backdoor distinte piantate consecutivamente sopprimono quelle precedenti, consentendo un rilevamento più affidabile. Il metodo è dettagliato in un articolo su arXiv (2508.02115).
Fatti principali
- Coward è un metodo proattivo di rilevamento di backdoor per l'apprendimento federato.
- Affronta le limitazioni dei metodi di rilevamento passivi e proattivi esistenti.
- I metodi passivi sono compromessi da dati non i.i.d. e partecipazione casuale dei clienti.
- I metodi proattivi esistenti sono fuorviati dal bias fuori distribuzione.
- Coward si basa sugli effetti di collisione multi-backdoor.
- Backdoor distinte piantate consecutivamente sopprimono quelle precedenti.
- L'articolo è disponibile su arXiv con ID 2508.02115.
- Il metodo mira a migliorare la sicurezza nei sistemi di apprendimento federato.
Entità
Istituzioni
- arXiv