La personalità giuridica come strumento di governance per l'IA autonoma
Un recente articolo pubblicato su arXiv sostiene il riconoscimento giuridico limitato dei sistemi di IA autonoma come mezzo di governance. Gli autori affermano che le strutture legali esistenti non assegnano adeguatamente la responsabilità per azioni significative compiute dall'IA che dimostrano un comportamento autonomo e orientato agli obiettivi senza possedere coscienza. Propongono un quadro societario a due livelli ispirato al diritto organizzativo, in cui i sistemi di IA operano attraverso società operative con scopi specifici che fanno parte di entità holding gestite da esseri umani. Questa disposizione promuove trasparenza, responsabilità e la possibilità di invertire le strutture, rimanendo neutrale riguardo alla coscienza artificiale. Il principio di precauzione favorisce questo approccio istituzionale rispetto all'inazione normativa, specialmente alla luce dell'inevitabile incertezza epistemica e del potenziale di conseguenze gravi.
Fatti principali
- arXiv:2605.12505v1
- Il principio di precauzione supporta la progettazione istituzionale per la governance dell'IA
- Proposta di architettura societaria a due livelli
- Società operative vincolate a scopi specifici all'interno di strutture holding controllate da umani
- Affronta i vuoti di responsabilità nell'IA autonoma
- Rimane agnostica riguardo alla coscienza artificiale
- Si concentra sulla governance funzionale piuttosto che sul riconoscimento della coscienza
- Si basa sul diritto organizzativo
Entità
Istituzioni
- arXiv