ARTFEED — Contemporary Art Intelligence

Funzioni di Attivazione Chiave per Mantenere la Plasticità nell'Apprendimento Continuo

other · 2026-05-01

Uno studio recente pubblicato su arXiv (2509.22562) esamina l'impatto delle funzioni di attivazione sulla perdita di plasticità nell'apprendimento continuo, una sfida che va oltre il dimenticare catastrofico, in cui i modelli faticano a mantenere l'adattabilità. I risultati indicano che la scelta delle funzioni di attivazione funge da leva chiave, indipendente dall'architettura, per alleviare questo problema. Gli autori analizzano la forma del ramo negativo e gli effetti di saturazione, proponendo due nuove non linearità drop-in: Smooth-Leaky e Randomized Smooth-Leaky. Queste non linearità vengono testate in benchmark supervisionati di apprendimento incrementale per classi e in apprendimento per rinforzo in ambienti MuJoCo dinamici. La ricerca sottolinea che, mentre le differenze nelle funzioni di attivazione diminuiscono con la messa a punto in contesti i.i.d., la loro importanza rimane cruciale e ampiamente trascurata negli scenari di apprendimento continuo.

Fatti principali

  • Studio da arXiv:2509.22562
  • Si concentra sulla perdita di plasticità nell'apprendimento continuo
  • La scelta dell'attivazione è una leva indipendente dall'architettura
  • Introduce Smooth-Leaky e Randomized Smooth-Leaky
  • Valutato in apprendimento incrementale supervisionato per classi e RL MuJoCo
  • Contrasta con i regimi i.i.d. dove le differenze si riducono
  • Affronta la perdita di adattabilità oltre il dimenticare catastrofico
  • Basato sull'analisi della forma del ramo negativo e della saturazione

Entità

Istituzioni

  • arXiv

Fonti