Le Reti Neurali Acquisiscono una Rappresentazione SVD Generalizzata
Una recente pubblicazione su arXiv (2605.06938) si basa sul framework della Decomposizione Generalizzata ai Valori Singolari (GSVD) stabilito da Brown et al. (2025), applicandolo a progetti contemporanei di reti neurali. I ricercatori dimostrano che la maggior parte di queste reti può essere espressa in un formato SVD generalizzato, mantenendo l'invertibilità sinistra prima dello strato lineare finale senza alterare le dinamiche input-output. Inoltre, la porzione non lineare invertibile a sinistra può essere regolata per preservare le norme, assicurando che i cambiamenti nello spazio di embedding siano proporzionali alle alterazioni nell'input. Ciò consente una calibrazione delle distanze nello spazio delle caratteristiche rispetto a quelle nello spazio di input. L'articolo introduce un metodo basato sui dati per stimare questa rappresentazione da modelli addestrati e suggerisce un progetto di modello che supporta la decomposizione. Una prova di concetto mostra che la rappresentazione derivata può rilevare perturbazioni nell'input.
Fatti principali
- L'articolo estende la teoria GSVD di Brown et al. (2025) alle reti neurali
- La maggior parte delle architetture neurali moderne ammette una rappresentazione SVD generalizzata
- Le reti sono invertibili a sinistra prima dello strato lineare finale senza cambiamenti nel comportamento
- La porzione non lineare invertibile a sinistra può essere resa preservante la norma
- Le perturbazioni nell'embedding corrispondono proporzionalmente ai cambiamenti nell'input
- Un algoritmo basato sui dati stima la rappresentazione da modelli addestrati
- L'architettura di modello proposta facilita la decomposizione
- La prova di concetto mostra che la rappresentazione può identificare perturbazioni nell'input
Entità
Istituzioni
- arXiv