I Processi a Ponte Neurale Migliorano il Condizionamento dell'Input nei Modelli di Diffusione
Un nuovo approccio di apprendimento automatico noto come Processi a Ponte Neurale (NBP) sostituisce il kernel forward indipendente dall'input presente nei Processi di Diffusione Neurale (NDP) con una traiettoria a ponte ancorata all'input. Questa innovazione consente di codificare gli input di condizionamento negli stati rumorosi di training, migliorando sia l'espressività che l'apprendimento consapevole dell'incertezza da coppie contesto-target parzialmente osservate. In scenari in cui le dimensioni di input e output non sono allineate, gli NBP stabiliscono un'ancora nello spazio di output a_ψ(x)=P_ψ(x) per dirigere la traiettoria generativa preservando l'integrità del backbone di denoising. Le valutazioni teoriche indicano che l'ancoraggio a livello di processo promuove la distinguibilità pathwise dell'input, infonde stati rumorosi con informazioni su x e stabilisce un percorso gradiente diretto. La ricerca è accessibile su arXiv con ID 2508.07220.
Fatti principali
- I Processi a Ponte Neurale (NBP) sostituiscono il kernel forward incondizionato con una traiettoria a ponte ancorata all'input.
- Gli NBP migliorano i Processi di Diffusione Neurale (NDP) facendo sì che gli stati rumorosi codifichino gli input di condizionamento.
- Quando le dimensioni di input e output differiscono, l'NBP apprende un'ancora nello spazio di output a_ψ(x)=P_ψ(x).
- L'ancoraggio a livello di processo induce distinguibilità pathwise dell'input.
- Il metodo inietta informazioni su x negli stati rumorosi.
- Crea un percorso gradiente diretto non disponibile negli approcci precedenti.
- L'articolo è arXiv:2508.07220v3.
- Il tipo di annuncio è replace-cross.
Entità
Istituzioni
- arXiv