L'algoritmo LIR unifica EM, Belief Propagation, GAN e GFlowNet
Un nuovo algoritmo generico chiamato Local Inconsistency Resolution (LIR) è stato introdotto per l'apprendimento e l'inferenza approssimata in modelli probabilistici. Basato sui Probabilistic Dependency Graphs (PDG), LIR fornisce un framework flessibile per catturare credenze inconsistenti e risolverle iterativamente concentrando l'attenzione su sottoinsiemi del modello. L'algoritmo unifica e generalizza diversi metodi importanti, tra cui Expectation-Maximization (EM), belief propagation, adversarial training, GAN e GFlowNet. In particolare, LIR suggerisce una loss più naturale per i GFlowNet, migliorando la convergenza. Ogni metodo viene recuperato come istanza specifica di LIR scegliendo procedure per attenzione e controllo. L'algoritmo è implementato per PDG discreti, e l'articolo è disponibile su arXiv (2604.17140).
Fatti principali
- LIR è un algoritmo generico per l'apprendimento e l'inferenza approssimata.
- Si basa sui Probabilistic Dependency Graphs (PDG).
- LIR unifica EM, belief propagation, adversarial training, GAN e GFlowNet.
- LIR suggerisce una loss più naturale per i GFlowNet, migliorando la convergenza.
- Ogni metodo viene recuperato scegliendo procedure per attenzione e controllo.
- L'algoritmo è implementato per PDG discreti.
- L'articolo è disponibile su arXiv con ID 2604.17140.
- LIR ha un'interpretazione epistemica intuitiva: concentrarsi iterativamente e risolvere le incongruenze.
Entità
Istituzioni
- arXiv