Delta Variances: Incertezza Epistemica Efficiente per Reti Neurali
Una nuova famiglia di algoritmi chiamata Delta Variances consente una quantificazione efficiente dell'incertezza epistemica per grandi reti neurali. L'approccio richiede solo un singolo calcolo del gradiente, nessuna modifica architetturale e può essere applicato a funzioni generali composte da reti neurali, inclusi simulatori meteorologici con funzioni a gradino basate su reti neurali. I risultati empirici mostrano prestazioni competitive. L'articolo discute molteplici derivazioni teoriche, unificando tecniche popolari sotto un quadro comune.
Fatti principali
- Delta Variances è una famiglia di algoritmi per la quantificazione dell'incertezza epistemica.
- È computazionalmente efficiente e conveniente da implementare.
- Non richiede modifiche all'architettura della rete neurale o alla procedura di addestramento.
- Può essere applicato a reti neurali e funzioni più generali composte da reti neurali.
- Esempio di applicazione: simulatore meteorologico con funzione a gradino basata su rete neurale.
- Ottiene empiricamente risultati competitivi al costo di un singolo calcolo del gradiente.
- L'articolo discute molteplici derivazioni teoriche.
- Casi speciali recuperano tecniche popolari.
Entità
—