Gli operatori neurali superano gli MLP nell'interpolazione di funzioni
Uno studio recente reinterpreta gli operatori neurali (NO) come efficaci interpolatori di funzioni, mostrando prestazioni migliori rispetto ai tradizionali percettroni multistrato e alle reti di Kolmogorov–Arnold su benchmark analitici. Incorporando uno spazio di base ausiliario, le funzioni a dimensione finita vengono viste come operatori che agiscono tramite composizione. Questo approccio richiede meno parametri e meno tempo di addestramento, ottenendo una precisione comparabile o migliorata. In un'applicazione pratica, un insieme bidimensionale di operatori neurali di Fourier tensorizzati (TFNO) è stato utilizzato sulla carta dei nuclidi, imparando a correggere modelli di massa nucleare all'avanguardia. L'insieme TFNO ha registrato un errore quadratico medio di 198,2 keV sui dati esclusi, classificandosi tra le migliori metodologie neurali recenti.
Fatti principali
- Gli operatori neurali (NO) sono progettati per apprendere mappe tra spazi di funzioni a dimensione infinita.
- Lo studio introduce uno spazio di base ausiliario per riformulare le funzioni a dimensione finita come operatori.
- Gli NO eguagliano o superano MLP e reti di Kolmogorov–Arnold in accuratezza.
- Gli NO richiedono significativamente meno parametri e tempo di addestramento.
- Un operatore neurale di Fourier tensorizzato (TFNO) bidimensionale è stato applicato alla carta dei nuclidi.
- L'insieme TFNO ha raggiunto un errore quadratico medio di 198,2 keV sui dati esclusi.
- L'approccio si classifica tra i migliori metodi neurali recenti per modelli di massa nucleare.
- La ricerca è pubblicata su arXiv con ID 2605.07792.
Entità
Istituzioni
- arXiv