ARTFEED — Contemporary Art Intelligence

Gli operatori neurali superano gli MLP nell'interpolazione di funzioni

ai-technology · 2026-05-11

Uno studio recente reinterpreta gli operatori neurali (NO) come efficaci interpolatori di funzioni, mostrando prestazioni migliori rispetto ai tradizionali percettroni multistrato e alle reti di Kolmogorov–Arnold su benchmark analitici. Incorporando uno spazio di base ausiliario, le funzioni a dimensione finita vengono viste come operatori che agiscono tramite composizione. Questo approccio richiede meno parametri e meno tempo di addestramento, ottenendo una precisione comparabile o migliorata. In un'applicazione pratica, un insieme bidimensionale di operatori neurali di Fourier tensorizzati (TFNO) è stato utilizzato sulla carta dei nuclidi, imparando a correggere modelli di massa nucleare all'avanguardia. L'insieme TFNO ha registrato un errore quadratico medio di 198,2 keV sui dati esclusi, classificandosi tra le migliori metodologie neurali recenti.

Fatti principali

  • Gli operatori neurali (NO) sono progettati per apprendere mappe tra spazi di funzioni a dimensione infinita.
  • Lo studio introduce uno spazio di base ausiliario per riformulare le funzioni a dimensione finita come operatori.
  • Gli NO eguagliano o superano MLP e reti di Kolmogorov–Arnold in accuratezza.
  • Gli NO richiedono significativamente meno parametri e tempo di addestramento.
  • Un operatore neurale di Fourier tensorizzato (TFNO) bidimensionale è stato applicato alla carta dei nuclidi.
  • L'insieme TFNO ha raggiunto un errore quadratico medio di 198,2 keV sui dati esclusi.
  • L'approccio si classifica tra i migliori metodi neurali recenti per modelli di massa nucleare.
  • La ricerca è pubblicata su arXiv con ID 2605.07792.

Entità

Istituzioni

  • arXiv

Fonti