Un framework unificato di minimizzazione dell'entropia potenzia Whisper ASR in oltre 20 domini
Un nuovo studio pubblicato su arXiv presenta un approccio innovativo alla minimizzazione dell'entropia nei modelli autoregressivi, concentrandosi in particolare sull'adattamento in fase di test. Questo metodo suddivide in modo innovativo i suoi obiettivi in due parti: l'utilizzo di una perdita di policy gradient a livello di token insieme a una perdita di entropia a livello di token, migliorando le strategie tradizionali come il teacher forcing e l'apprendimento per rinforzo. Le valutazioni utilizzando Whisper ASR di OpenAI rivelano progressi notevoli in oltre 20 aree diverse, affrontando sfide come rumore di fondo, accenti multipli e multilinguismo. L'articolo di ricerca, intitolato "Rethinking Entropy Minimization in Test-Time Adaptation for Autoregressive Models", è accessibile su arXiv con l'identificatore 2605.08186.
Fatti principali
- Lo studio deriva una formulazione rigorosa della minimizzazione dell'entropia per modelli autoregressivi.
- L'obiettivo si scompone in una perdita di policy gradient a livello di token e una perdita di entropia a livello di token.
- I metodi precedenti vengono reinterpretati come realizzazioni parziali di questa formulazione unificata.
- Whisper ASR viene utilizzato come banco di prova per l'approccio.
- Le prestazioni migliorano in oltre 20 domini diversi.
- I domini includono rumore acustico, accenti e contesti multilingue.
- L'articolo è disponibile su arXiv con riferimento 2605.08186.
- Lo studio affronta la frammentazione teorica nell'adattamento in fase di test per modelli generativi.
Entità
Istituzioni
- arXiv
- OpenAI