AdaBFL: Aggregazione Difensiva Multi-Livello per Apprendimento Federato Robusto ai Bizantini
I ricercatori propongono AdaBFL, un metodo di aggregazione adattiva difensiva multi-livello per l'apprendimento federato robusto ai bizantini. L'apprendimento federato consente l'addestramento collaborativo di modelli senza esporre i dati dei clienti, ma è vulnerabile ad attacchi di avvelenamento in cui clienti malintenzionati inviano modelli corrotti. I metodi esistenti robusti ai bizantini faticano a difendersi da molteplici tipi di attacco o richiedono dataset lato server. AdaBFL introduce un meccanismo difensivo a tre livelli che adatta dinamicamente i pesi degli algoritmi di difesa per contrastare attacchi complessi. L'articolo fornisce anche le proprietà di convergenza del metodo proposto.
Fatti principali
- AdaBFL è un metodo di aggregazione adattiva difensiva multi-livello per l'apprendimento federato robusto ai bizantini.
- L'apprendimento federato è vulnerabile ad attacchi di avvelenamento da parte di clienti malintenzionati.
- I metodi esistenti robusti ai bizantini presentano limiti nel difendersi da molteplici tipi di attacco o richiedono dataset lato server.
- AdaBFL utilizza un meccanismo difensivo a tre livelli.
- Il metodo adatta dinamicamente i pesi degli algoritmi di difesa.
- L'articolo fornisce le proprietà di convergenza di AdaBFL.
- La ricerca è pubblicata su arXiv con ID 2604.27434.
- Il metodo mira a contrastare attacchi complessi nell'apprendimento federato.
Entità
Istituzioni
- arXiv