ARTFEED — Contemporary Art Intelligence

L'algoritmo LIR unifica EM, Belief Propagation, GAN e GFlowNet

other · 2026-05-01

Un nuovo algoritmo generico chiamato Local Inconsistency Resolution (LIR) è stato introdotto per l'apprendimento e l'inferenza approssimata in modelli probabilistici. Basato sui Probabilistic Dependency Graphs (PDG), LIR fornisce un framework flessibile per catturare credenze inconsistenti e risolverle iterativamente concentrando l'attenzione su sottoinsiemi del modello. L'algoritmo unifica e generalizza diversi metodi importanti, tra cui Expectation-Maximization (EM), belief propagation, adversarial training, GAN e GFlowNet. In particolare, LIR suggerisce una loss più naturale per i GFlowNet, migliorando la convergenza. Ogni metodo viene recuperato come istanza specifica di LIR scegliendo procedure per attenzione e controllo. L'algoritmo è implementato per PDG discreti, e l'articolo è disponibile su arXiv (2604.17140).

Fatti principali

  • LIR è un algoritmo generico per l'apprendimento e l'inferenza approssimata.
  • Si basa sui Probabilistic Dependency Graphs (PDG).
  • LIR unifica EM, belief propagation, adversarial training, GAN e GFlowNet.
  • LIR suggerisce una loss più naturale per i GFlowNet, migliorando la convergenza.
  • Ogni metodo viene recuperato scegliendo procedure per attenzione e controllo.
  • L'algoritmo è implementato per PDG discreti.
  • L'articolo è disponibile su arXiv con ID 2604.17140.
  • LIR ha un'interpretazione epistemica intuitiva: concentrarsi iterativamente e risolvere le incongruenze.

Entità

Istituzioni

  • arXiv

Fonti