Modello di Governance Neurocognitiva per Agenti AI Autonomi
Una recente pubblicazione su arXiv introduce un modello di governance neurocognitiva per agenti AI autonomi. Questo modello sfrutta meccanismi di autogoverno umani, come la funzione esecutiva e il controllo inibitorio, per allinearsi al ragionamento degli agenti basati su LLM. Mira a colmare il vuoto di governance presente nei metodi esistenti come i guardrail runtime e gli audit post-hoc, che considerano la governance come un limite esterno anziché un principio intrinseco. L'obiettivo del documento è prevenire azioni non sicure e irreversibili da parte degli agenti in settori come l'impresa, la sanità e i domini critici per la sicurezza.
Fatti principali
- arXiv:2604.25684v1
- Pubblicato su arXiv
- Propone un framework di governance neurocognitiva
- Si basa sui processi di autogoverno umani
- Mappa la funzione esecutiva e il controllo inibitorio al ragionamento LLM
- Affronta il divario di governance negli agenti AI autonomi
- Gli approcci attuali includono guardrail runtime, allineamento durante l'addestramento, audit post-hoc
- Target: ambienti aziendali, sanitari e critici per la sicurezza
Entità
Istituzioni
- arXiv