ARTFEED — Contemporary Art Intelligence

Un framework unificato di minimizzazione dell'entropia potenzia Whisper ASR in oltre 20 domini

ai-technology · 2026-05-12

Un nuovo studio pubblicato su arXiv presenta un approccio innovativo alla minimizzazione dell'entropia nei modelli autoregressivi, concentrandosi in particolare sull'adattamento in fase di test. Questo metodo suddivide in modo innovativo i suoi obiettivi in due parti: l'utilizzo di una perdita di policy gradient a livello di token insieme a una perdita di entropia a livello di token, migliorando le strategie tradizionali come il teacher forcing e l'apprendimento per rinforzo. Le valutazioni utilizzando Whisper ASR di OpenAI rivelano progressi notevoli in oltre 20 aree diverse, affrontando sfide come rumore di fondo, accenti multipli e multilinguismo. L'articolo di ricerca, intitolato "Rethinking Entropy Minimization in Test-Time Adaptation for Autoregressive Models", è accessibile su arXiv con l'identificatore 2605.08186.

Fatti principali

  • Lo studio deriva una formulazione rigorosa della minimizzazione dell'entropia per modelli autoregressivi.
  • L'obiettivo si scompone in una perdita di policy gradient a livello di token e una perdita di entropia a livello di token.
  • I metodi precedenti vengono reinterpretati come realizzazioni parziali di questa formulazione unificata.
  • Whisper ASR viene utilizzato come banco di prova per l'approccio.
  • Le prestazioni migliorano in oltre 20 domini diversi.
  • I domini includono rumore acustico, accenti e contesti multilingue.
  • L'articolo è disponibile su arXiv con riferimento 2605.08186.
  • Lo studio affronta la frammentazione teorica nell'adattamento in fase di test per modelli generativi.

Entità

Istituzioni

  • arXiv
  • OpenAI

Fonti