Reti Neurali Grafiche Ricorrenti: Modelli ad Arresto vs Modelli Convergenti
Un nuovo studio pubblicato su arXiv (2604.25551) esamina tre tipi di Reti Neurali Grafiche Ricorrenti (RGNN). Il primo tipo, le RGNN convergenti, richiede che tutte le rappresentazioni dei vertici si stabilizzino, mentre il secondo tipo, le RGNN a output convergente, richiede solo la stabilità delle classificazioni di output. Il terzo tipo, le RGNN ad arresto, utilizza un classificatore di arresto specifico per ogni vertice. I risultati rivelano che per i grafi non orientati, le RGNN convergenti e le RGNN ad arresto invarianti per gradazione-bisimulazione hanno lo stesso livello di espressività, con le RGNN a output convergente che sono almeno altrettanto espressive. Inoltre, questi risultati suggeriscono che le RGNN convergenti si allineano strettamente con il μ-calcolo modale graduato (μGML) in termini di classificatori esprimibili nella logica monadica del secondo ordine (MSO).
Fatti principali
- 1. Il paper arXiv 2604.25551 studia tre modelli RGNN: convergenti, a output convergente e ad arresto.
- 2. Le RGNN convergenti richiedono che tutte le rappresentazioni dei vertici si stabilizzino.
- 3. Le RGNN a output convergente richiedono solo che le classificazioni di output si stabilizzino.
- 4. Le RGNN ad arresto utilizzano un classificatore di arresto per vertice per determinare quando fermarsi.
- 5. Su grafi non orientati, le RGNN convergenti sono ugualmente espressive delle RGNN ad arresto invarianti per gradazione-bisimulazione.
- 6. Le RGNN a output convergente sono almeno altrettanto espressive delle RGNN convergenti.
- 7. Rispetto ai classificatori esprimibili in MSO, le RGNN convergenti esprimono esattamente μGML.
- 8. Le RGNN a output convergente esprimono almeno μGML.
Entità
Istituzioni
- arXiv