Proposto un quadro di certificazione statistica per la regolamentazione del rischio dell'IA
Un nuovo studio su arXiv ha proposto un quadro di certificazione statistica progettato per affrontare la necessità di metodi quantitativi migliori nella sicurezza dell'IA, specialmente con l'imminente regolamento UE sull'IA. I ricercatori sottolineano che gli attuali quadri, come l'AI Act dell'UE e il NIST Risk Management Framework, richiedono che i sistemi di IA ad alto rischio dimostrino sicurezza, ma non definiscono chiaramente cosa sia 'rischio accettabile' né offrono modi per verificarlo tecnicamente. Questa lacuna diventa più pressante man mano che l'AI Act dell'UE si avvicina alla piena attuazione, in particolare per i complessi motori di inferenza statistica che i test tradizionali non possono gestire. Lo studio mira a creare un solido approccio statistico per demistificare il processo decisionale dell'IA e stabilire un processo di certificazione per la conformità con soglie di rischio designate.
Fatti principali
- Articolo pubblicato su arXiv con ID 2604.21854
- Propone un quadro di certificazione statistica per la regolamentazione del rischio dell'IA
- Vengono menzionati l'AI Act dell'UE, il NIST Risk Management Framework e la Convenzione del Consiglio d'Europa come quadri normativi
- Nessuno dei quadri specifica definizioni quantitative di 'rischio accettabile'
- Non esiste un metodo tecnico per verificare che i sistemi implementati soddisfino le soglie di sicurezza
- L'AI Act dell'UE sta entrando in piena applicazione
- I sistemi ad alto rischio includono decisioni di prestito, segnalazioni di indagini penali e frenata di veicoli autonomi
- L'articolo si concentra su opachi motori di inferenza statistica
Entità
Istituzioni
- arXiv
- European Union
- EU AI Act
- NIST Risk Management Framework
- Council of Europe Convention