Modelli Linguistici Diffusivi vs Autoregressivi: Differenze Testuali
Uno studio su arXiv (2605.12522) confronta il testo generato da modelli linguistici diffusivi (DLM) e modelli linguistici autoregressivi (ARM). Empiricamente, i DLM mostrano una minore entropia degli n-grammi, una maggiore coerenza semantica e una maggiore diversità semantica. Esperimenti controllati separano gli obiettivi di addestramento dagli algoritmi di decodifica. L'obiettivo di addestramento dei DLM aumenta la coerenza e la diversità semantica, ma influisce appena sull'entropia. Il contesto bidirezionale è il principale fattore determinante; il mascheramento degli input, il mascheramento delle etichette e la ponderazione hanno un'influenza più debole. La riduzione dell'entropia deriva dagli algoritmi di decodifica dei DLM, in particolare dal campionamento basato sulla confidenza.
Fatti principali
- Il paper arXiv 2605.12522 confronta il testo di DLM e ARM
- I DLM hanno una minore entropia degli n-grammi rispetto agli ARM
- I DLM mostrano una maggiore coerenza e diversità semantica
- L'obiettivo di addestramento aumenta coerenza e diversità
- Il contesto bidirezionale è la causa principale delle differenze
- Mascheramento input, etichette e ponderazione hanno effetti minori
- La riduzione dell'entropia è dovuta agli algoritmi di decodifica
- Il campionamento basato sulla confidenza contribuisce al calo dell'entropia
Entità
Istituzioni
- arXiv