L'addestramento parallelo nel tempo potenzia le reti neurali ricorrenti per sistemi dinamici
Un nuovo preprint su arXiv (2605.12683) esplora algoritmi di addestramento parallelo nel tempo per reti neurali ricorrenti (RNN) utilizzate nella ricostruzione di sistemi dinamici (DSR). La classica retropropagazione attraverso il tempo ha complessità temporale lineare O(T), limitando la lunghezza delle sequenze. L'articolo esamina due classi di algoritmi che sfruttano scansioni associative parallele per ottenere una complessità temporale logaritmica O(log T). La prima classe include modelli con dinamiche lineari non autonome e readout non lineari, come i moderni State Space Models (SSM). La seconda classe comprende modelli non lineari generali parallelizzati tramite il framework DEER. Questo progresso consente di elaborare sequenze molto più lunghe, aprendo nuove strade per la DSR nella scienza e nell'ingegneria.
Fatti principali
- arXiv:2605.12683v1 pubblicato su arXiv
- Si concentra sull'addestramento parallelo nel tempo di RNN per la ricostruzione di sistemi dinamici
- La classica retropropagazione attraverso il tempo ha complessità O(T)
- I nuovi algoritmi raggiungono complessità O(log T)
- Due classi studiate: modelli lineari non autonomi con readout non lineari (es. SSM) e modelli non lineari generali tramite framework DEER
- Entrambe le classi utilizzano scansioni associative parallele come primitiva fondamentale
- Consente l'elaborazione di sequenze più lunghe per la DSR
- Affronta una sfida fondamentale nella scienza e nell'ingegneria
Entità
Istituzioni
- arXiv