ARTFEED — Contemporary Art Intelligence

MetaMoE: Unificazione Privacy-Preserving di Mixture-of-Experts tramite Selezione Proxy Consapevole della Diversità

ai-technology · 2026-05-16

MetaMoE è un framework progettato per proteggere la privacy integrando esperti specializzati addestrati separatamente in un unico modello Mixture-of-Experts (MoE), utilizzando dati proxy pubblici come sostituti per informazioni private inaccessibili. Affronta il problema dei dati distribuiti tra clienti che non possono essere condivisi a causa delle normative sulla privacy. Una caratteristica chiave di MetaMoE è la selezione proxy consapevole della diversità, che identifica campioni pertinenti e vari da dataset pubblici per imitare le distribuzioni dei dati privati e facilitare l'addestramento del router. Questi proxy aiutano anche a sincronizzare l'addestramento degli esperti per una migliore unificazione, mentre un router sensibile al contesto ottimizza la selezione degli esperti per input diversi. La sua efficacia è stata validata attraverso esperimenti in computer vision e elaborazione del linguaggio naturale.

Fatti principali

  • MetaMoE è un framework che preserva la privacy per l'unificazione MoE.
  • Utilizza dati proxy pubblici come surrogati per dati privati.
  • La selezione proxy consapevole della diversità sceglie campioni pertinenti e vari.
  • I proxy supervisionano l'apprendimento del router e allineano l'addestramento degli esperti.
  • Un router sensibile al contesto migliora la selezione degli esperti.
  • Esperimenti condotti su compiti di computer vision e NLP.
  • Affronta i vincoli di privacy dei dati distribuiti.
  • arXiv:2605.14289.

Entità

Istituzioni

  • arXiv

Fonti