Elastic Spiking Transformer consente il riconoscimento dei gesti adattivo in tempo di esecuzione
Una nuova architettura nota come Elastic Spiking Transformer è stata creata da ricercatori, progettata per reti neurali spike (SNN) in grado di adattare la larghezza del modello e le teste di attenzione durante l'inferenza senza necessità di riaddestramento. Ispirandosi all'apprendimento delle rappresentazioni in stile Matryoshka, questo modello incorpora elasticità annidata all'interno dei blocchi Feature Extractor, Spiking Self-Attention e Feed-Forward attraverso la condivisione dei pesi sensibile alla granularità. Questa innovazione consente a un singolo modello universale di bilanciare accuratezza ed efficienza su piattaforme neuromorfiche come Loihi e SpiNNaker, superando i limiti delle architetture SNN esistenti che si basano su parametri fissi e grafi computazionali. Il metodo mira a facilitare l'elaborazione energeticamente efficiente dei dati dei sensori basati su eventi per applicazioni sanitarie, incluso il riconoscimento dei gesti.
Fatti principali
- Elastic Spiking Transformer è un'architettura adattiva in tempo di esecuzione per SNN.
- Taglia dinamicamente la larghezza della rete e le teste di attenzione durante l'inferenza senza riaddestramento.
- Ispirato all'apprendimento delle rappresentazioni in stile Matryoshka.
- Utilizza la condivisione dei pesi sensibile alla granularità per l'elasticità annidata.
- Mirato al dispiegamento su hardware neuromorfico come Loihi e SpiNNaker.
- Affronta la rigidità delle attuali architetture SNN con conteggi di parametri fissi.
- Mira all'elaborazione energeticamente efficiente dei dati dei sensori basati su eventi per la sanità.
- Si concentra sulle applicazioni di comprensione dei gesti.
Entità
Istituzioni
- arXiv