ARTFEED — Contemporary Art Intelligence

Transformer Neural Process Introduce la Regressione Kernel per la Modellazione Stocastica Scalabile

ai-technology · 2026-04-20

Un nuovo articolo di ricerca introduce Transformer Neural Process - Kernel Regression (TNP-KR), un modello scalabile progettato per superare i colli di bottiglia computazionali nei Neural Process esistenti. I Neural Process sono stati originariamente sviluppati come alternativa più scalabile ai Gaussian Process, che affrontano limitazioni di runtime O(n³). Mentre i Neural Process moderni possono eguagliare i Gaussian Process in accuratezza, incontrano ancora vincoli O(n²) a causa dei meccanismi di attenzione. Il modello TNP-KR incorpora un Kernel Regression Block che raggiunge una complessità di O(n_c² + n_c n_t), dove n_c e n_t rappresentano rispettivamente i punti di contesto e di test. Questa architettura include un bias di attenzione basato su kernel e due nuovi meccanismi di attenzione: scan attention, che migliora l'efficienza della memoria, e l'invarianza traslazionale quando abbinata al kernel bias. La ricerca è stata pubblicata su arXiv con identificatore 2411.12502v4, classificata come annuncio cross di sostituzione. Il lavoro affronta le sfide fondamentali nella modellazione delle distribuzioni predittive posteriori dei processi stocastici attraverso approcci basati su transformer.

Fatti principali

  • Transformer Neural Process - Kernel Regression (TNP-KR) introduce la modellazione scalabile dei processi stocastici
  • I Neural Process sono stati sviluppati come alternative scalabili ai Gaussian Process con complessità O(n³)
  • I Neural Process moderni possono rivaleggiare con i Gaussian Process in accuratezza ma soffrono di colli di bottiglia O(n²)
  • TNP-KR presenta Kernel Regression Block con complessità O(n_c² + n_c n_t)
  • Il modello include kernel-based attention bias e il nuovo meccanismo di scan attention
  • Lo scan attention abbinato al kernel bias consente l'invarianza traslazionale
  • La ricerca è stata pubblicata su arXiv con identificatore 2411.12502v4
  • Il tipo di annuncio del paper è replace-cross

Entità

Istituzioni

  • arXiv

Fonti