Decodifica Jacobi Selettiva Accelera i Flussi Normalizzanti Discreti
Un nuovo metodo, la Decodifica Jacobi Selettiva, accelera l'inferenza nei flussi normalizzanti autoregressivi discreti rilassando le rigide dipendenze sequenziali. L'approccio identifica che campioni di alta qualità possono essere generati senza condizionare tutte le sotto-variabili precedenti e che una bassa ridondanza di dipendenza si verifica nei primi strati. Ciò consente il calcolo parallelo, riducendo significativamente il tempo di generazione mantenendo la qualità. L'articolo è disponibile su arXiv (2505.24791).
Fatti principali
- 1. La Decodifica Jacobi Selettiva accelera l'inferenza nei flussi normalizzanti autoregressivi discreti.
- 2. La rigida dipendenza sequenziale nell'inferenza non è necessaria per campioni di alta qualità.
- 3. Le sotto-variabili possono essere approssimate senza condizionare tutte le sotto-variabili precedenti.
- 4. I modelli mostrano una bassa ridondanza di dipendenza nei primi strati e una maggiore ridondanza successivamente.
- 5. Il metodo consente il calcolo parallelo durante l'inferenza.
- 6. L'articolo è disponibile su arXiv con ID 2505.24791.
- 7. I flussi normalizzanti discreti offrono calcolo analitico della log-verosimiglianza e addestramento end-to-end.
- 8. La modellazione autoregressiva migliora il potere espressivo ma limita il calcolo parallelo.
Entità
Istituzioni
- arXiv