Distillazione della Priorità di Diffusione Generativa per la Classificazione di Serie Temporali
Un nuovo articolo su arXiv (2605.11414) introduce la Distillazione della Priorità di Diffusione Generativa (GDPD) per affrontare la sfida della classificazione di dati di serie temporali quando sono disponibili solo prefissi parziali a causa di vincoli di latenza e costo. I classificatori tradizionali assumono sequenze complete durante l'inferenza, ma i dati parziali spesso mancano di pattern discriminativi di classe, ostacolando la generalizzazione. Gli autori propongono l'uso della distillazione della conoscenza (KD) da un modello insegnante a sequenza completa a un modello studente a sequenza parziale. Tuttavia, l'allineamento diretto delle caratteristiche fallisce quando il divario di generalizzazione deriva da differenze nei dati (completi vs. parziali) piuttosto che dalla capacità dei parametri. GDPD utilizza una priorità di diffusione generativa per fornire una supervisione progressiva, diversificata e collettiva dell'insegnante, consentendo allo studente di apprendere più efficacemente le caratteristiche del contesto completo dell'insegnante. Il metodo è validato su più benchmark di serie temporali, mostrando una migliore accuratezza di classificazione su input parziali.
Fatti principali
- ID articolo: arXiv:2605.11414
- Pubblicato su arXiv
- Affronta la classificazione di serie temporali con prefissi parziali
- Utilizza la distillazione della conoscenza da insegnante a sequenza completa a studente a sequenza parziale
- Propone la Distillazione della Priorità di Diffusione Generativa (GDPD)
- GDPD fornisce una supervisione progressiva, diversificata e collettiva dell'insegnante
- Validato su più benchmark di serie temporali
- Migliora l'accuratezza di classificazione su input parziali
Entità
Istituzioni
- arXiv