ARTFEED — Contemporary Art Intelligence

AdaBFL: Aggregazione Difensiva Multi-Livello per Apprendimento Federato Robusto ai Bizantini

ai-technology · 2026-05-01

I ricercatori propongono AdaBFL, un metodo di aggregazione adattiva difensiva multi-livello per l'apprendimento federato robusto ai bizantini. L'apprendimento federato consente l'addestramento collaborativo di modelli senza esporre i dati dei clienti, ma è vulnerabile ad attacchi di avvelenamento in cui clienti malintenzionati inviano modelli corrotti. I metodi esistenti robusti ai bizantini faticano a difendersi da molteplici tipi di attacco o richiedono dataset lato server. AdaBFL introduce un meccanismo difensivo a tre livelli che adatta dinamicamente i pesi degli algoritmi di difesa per contrastare attacchi complessi. L'articolo fornisce anche le proprietà di convergenza del metodo proposto.

Fatti principali

  • AdaBFL è un metodo di aggregazione adattiva difensiva multi-livello per l'apprendimento federato robusto ai bizantini.
  • L'apprendimento federato è vulnerabile ad attacchi di avvelenamento da parte di clienti malintenzionati.
  • I metodi esistenti robusti ai bizantini presentano limiti nel difendersi da molteplici tipi di attacco o richiedono dataset lato server.
  • AdaBFL utilizza un meccanismo difensivo a tre livelli.
  • Il metodo adatta dinamicamente i pesi degli algoritmi di difesa.
  • L'articolo fornisce le proprietà di convergenza di AdaBFL.
  • La ricerca è pubblicata su arXiv con ID 2604.27434.
  • Il metodo mira a contrastare attacchi complessi nell'apprendimento federato.

Entità

Istituzioni

  • arXiv

Fonti