Nuovi Limiti di Generalizzazione per Reti Neurali Sovraparametrizzate
Un nuovo articolo su arXiv introduce limiti di complessità dipendenti dall'inizializzazione per reti neurali shallow sovraparametrizzate. La ricerca affronta la proprietà del benign overfitting, per cui le reti generalizzano bene nonostante abbiano più parametri che esempi di addestramento. Le analisi esistenti che utilizzano la distanza dalla norma di Frobenius dall'inizializzazione spesso producono limiti vacui. Gli autori propongono limiti basati sulla path-norm della distanza dall'inizializzazione, derivati tramite una nuova tecnica di peeling per funzioni di attivazione Lipschitz generali. Questo lavoro mira a fornire garanzie teoriche non vacue per modelli sovraparametrizzati.
Fatti principali
- Articolo arXiv:2604.00505v3
- Si concentra su reti neurali shallow sovraparametrizzate
- Affronta la proprietà del benign overfitting
- I limiti esistenti che usano la norma di Frobenius sono spesso vacui
- I nuovi limiti dipendono dalla path-norm della distanza dall'inizializzazione
- Utilizza una nuova tecnica di peeling
- Si applica a funzioni di attivazione Lipschitz generali
- Mira a limiti di generalizzazione non vacui
Entità
Istituzioni
- arXiv