L''accuratezza appropriata' dell'AI Act dell'UE dipende da scelte normative contestuali
Un nuovo articolo su arXiv sfida l'idea che l'accuratezza dell'IA sia puramente oggettiva e tecnica, sostenendo che dipende da decisioni normative dipendenti dal contesto. L'analisi utilizza come caso di studio l'AI Act dell'Unione Europea del 2024, che impone un 'livello appropriato di accuratezza' per i sistemi ad alto rischio. Gli autori identificano quattro scelte chiave che modellano la valutazione dell'accuratezza: selezione delle metriche, bilanciamento di più metriche, misurazione rispetto a dati rappresentativi e determinazione delle soglie di accettazione. Queste scelte tecno-normative determinano quali errori vengono prioritizzati, come vengono distribuiti i rischi e come vengono risolti i compromessi. L'articolo fornisce un quadro giuridico-tecnico per un'implementazione rigorosa dell'IA.
Fatti principali
- Articolo pubblicato su arXiv con ID 2604.03254v2
- Sfida l'idea che l'accuratezza sia una proprietà oggettiva, misurabile e puramente tecnica
- Utilizza l'AI Act dell'Unione Europea del 2024 come caso di studio principale
- L'AI Act dell'UE impone un 'livello appropriato di accuratezza' per i sistemi ad alto rischio
- Identifica quattro scelte: selezione delle metriche, bilanciamento di più metriche, misurazione rispetto a dati rappresentativi, determinazione delle soglie di accettazione
- Sostiene che la valutazione delle prestazioni dell'IA dipende da decisioni normative dipendenti dal contesto
- Le scelte tecno-normative influenzano la prioritizzazione degli errori, la distribuzione dei rischi e i compromessi
- Fornisce un'analisi giuridico-tecnica per un'implementazione rigorosa dell'IA
Entità
Istituzioni
- arXiv
- European Union
Luoghi
- European Union