L'ottimizzatore DBS-Adam migliora la previsione della gravità degli incidenti
Un nuovo ottimizzatore di deep learning, Dynamic Batch-Sensitive Adam (DBS-Adam), scala dinamicamente i tassi di apprendimento in base alla difficoltà del batch, migliorando la stabilità dell'addestramento e la velocità di convergenza. Viene valutato su reti Bi-Directional LSTM per la previsione della gravità delle lesioni da incidenti veicolari, affrontando lo squilibrio di classe con SMOTE-ENN e Focal Loss.
Fatti principali
- DBS-Adam utilizza un punteggio di difficoltà del batch basato su medie mobili esponenziali delle norme del gradiente e della loss del batch.
- Aumenta gli aggiornamenti per i batch difficili e li riduce per quelli più facili.
- Integrato con reti Bi-Directional LSTM per la previsione della gravità delle lesioni da incidenti.
- Lo squilibrio di classe viene gestito tramite ricampionamento SMOTE-ENN e Focal Loss.
- Quattro configurazioni sperimentali confrontano modelli Bi-LSTM di base e architetture alternative.
- Pubblicato su arXiv con ID 2605.15083.
- L'ottimizzatore è progettato per dataset squilibrati e sequenziali.
- Mira a migliorare l'efficienza del modello e la velocità di convergenza.
Entità
Istituzioni
- arXiv