ARTFEED — Contemporary Art Intelligence

L'ottimizzatore DBS-Adam migliora la previsione della gravità degli incidenti

other · 2026-05-16

Un nuovo ottimizzatore di deep learning, Dynamic Batch-Sensitive Adam (DBS-Adam), scala dinamicamente i tassi di apprendimento in base alla difficoltà del batch, migliorando la stabilità dell'addestramento e la velocità di convergenza. Viene valutato su reti Bi-Directional LSTM per la previsione della gravità delle lesioni da incidenti veicolari, affrontando lo squilibrio di classe con SMOTE-ENN e Focal Loss.

Fatti principali

  • DBS-Adam utilizza un punteggio di difficoltà del batch basato su medie mobili esponenziali delle norme del gradiente e della loss del batch.
  • Aumenta gli aggiornamenti per i batch difficili e li riduce per quelli più facili.
  • Integrato con reti Bi-Directional LSTM per la previsione della gravità delle lesioni da incidenti.
  • Lo squilibrio di classe viene gestito tramite ricampionamento SMOTE-ENN e Focal Loss.
  • Quattro configurazioni sperimentali confrontano modelli Bi-LSTM di base e architetture alternative.
  • Pubblicato su arXiv con ID 2605.15083.
  • L'ottimizzatore è progettato per dataset squilibrati e sequenziali.
  • Mira a migliorare l'efficienza del modello e la velocità di convergenza.

Entità

Istituzioni

  • arXiv

Fonti