ARTFEED — Contemporary Art Intelligence

FedProxy Framework Introduce Proxy SLM per il Fine-Tuning Federato di LLM

ai-technology · 2026-04-22

FedProxy, un nuovo framework di adattamento federato, affronta le sfide della protezione della proprietà intellettuale, della privacy dei clienti e del degrado delle prestazioni su dati eterogenei durante il fine-tuning dei Large Language Model. Le tecniche attuali, come Offsite-Tuning (OT), consentono ai clienti di addestrare solo adattatori leggeri per salvaguardare la proprietà intellettuale degli LLM, ma presentano una limitazione critica nelle prestazioni, creando un divario significativo rispetto all'addestramento centralizzato. Invece di questi adattatori deboli, FedProxy introduce un robusto Proxy Small Language Model (SLM), derivato dal LLM proprietario, che funge da surrogato preciso per il fine-tuning collaborativo. Questo framework affronta efficacemente il trilemma attraverso un processo in tre fasi: Rappresentazione Efficiente tramite compressione guidata dal server, Ottimizzazione Robusta con fusione consapevole dell'eterogeneità, e Distribuzione Sicura che garantisce la privacy. Questo metodo migliora le prestazioni proteggendo contemporaneamente la proprietà intellettuale del modello e i dati dei clienti in ambienti di apprendimento federato. I risultati sono stati condivisi su arXiv con l'identificatore 2604.19015v1, classificato come annuncio incrociato.

Fatti principali

  • FedProxy è un nuovo framework di adattamento federato per Large Language Model
  • Affronta la protezione della proprietà intellettuale, la privacy dei clienti e la perdita di prestazioni su dati eterogenei
  • Sostituisce gli adattatori deboli con un unificato Proxy Small Language Model compresso da LLM proprietari
  • Utilizza un'architettura in tre fasi: Rappresentazione Efficiente, Ottimizzazione Robusta, Distribuzione Sicura
  • Pubblicato su arXiv con identificatore 2604.19015v1
  • Il tipo di annuncio è incrociato
  • I metodi esistenti come Offsite-Tuning soffrono di colli di bottiglia nelle prestazioni
  • Il Proxy SLM funge da surrogato ad alta fedeltà per il fine-tuning collaborativo

Entità

Istituzioni

  • arXiv

Fonti