Scalare l'Inferenza Ammortizzata a Grandi Insiemi di Osservazioni
Un nuovo metodo consente alla stima neurale a posteriori di scalare a insiemi di osservazioni arbitrariamente grandi senza costi proibitivi di memoria o calcolo. L'approccio addestra un encoder Deep Set con mean-pooling su insiemi di dimensione al massimo due, quindi perfeziona la testa di inferenza su embedding pre-aggregati, rendendo il costo di addestramento essenzialmente indipendente dalla dimensione N dell'insieme di deployment. Questo disaccoppia l'apprendimento della rappresentazione dalla modellazione a posteriori. La tecnica è dimostrata su compiti scalari, di immagini e 3D multi-vista. L'articolo è disponibile su arXiv (2605.07972).
Fatti principali
- Il metodo addestra un encoder Deep Set con mean-pooling su insiemi di dimensione ≤2
- L'encoder generalizza a insiemi di dimensione arbitraria
- La testa di inferenza è perfezionata su embedding pre-aggregati
- Il costo di addestramento è indipendente dalla dimensione N dell'insieme di deployment
- Dimostrato su compiti scalari, di immagini e 3D multi-vista
- arXiv:2605.07972
- Stima neurale a posteriori per inferenza ammortizzata
- Disaccoppia l'apprendimento della rappresentazione dalla modellazione a posteriori
Entità
Istituzioni
- arXiv