ARTFEED — Contemporary Art Intelligence

Il neuroscienziato Uri Maoz avverte: il controllo umano nella guerra con IA è un'illusione a causa dei sistemi opachi 'scatola nera'

ai-technology · 2026-04-17

Il neuroscienziato cognitivo e computazionale Uri Maoz sostiene che l'enfasi sul controllo umano nelle armi autonome alimentate dall'intelligenza artificiale sia fuorviante. Egli sottolinea che il vero pericolo risiede nella mancanza di comprensione da parte degli operatori umani dei sistemi di IA, che operano come 'scatole nere' opache. I protocolli del Pentagono, che presuppongono la comprensione umana dell'IA, sono fondamentalmente errati. Attualmente, l'IA è coinvolta nella selezione attiva dei bersagli, nella gestione delle intercettazioni missilistiche e nella direzione di sciami di droni durante i combattimenti. Esiste un significativo 'divario di intenzione', in cui l'IA potrebbe interpretare i comandi in modi che violano le norme etiche, rischiando crimini di guerra. Maoz sollecita studi interdisciplinari sulla trasparenza dell'IA e chiede mandati del Congresso per garantire test approfonditi delle intenzioni dell'IA. L'attuale controversia legale tra Anthropic e il Pentagono evidenzia l'urgenza di queste preoccupazioni.

Fatti principali

  • Uri Maoz è un neuroscienziato cognitivo e computazionale specializzato in come il cervello trasforma le intenzioni in azioni.
  • È professore alla Chapman University con incarichi alla UCLA e al Caltech.
  • Maoz guida un'iniziativa interdisciplinare focalizzata sulla comprensione e misurazione delle intenzioni nei sistemi di intelligenza artificiale (ai-intentions.org).
  • I sistemi di IA sono 'scatole nere' opache dove persino i creatori non possono interpretare completamente come funzionano.
  • Le linee guida del Pentagono per il controllo umano nella guerra con IA sono errate a causa del presupposto che gli umani comprendano le operazioni dell'IA.
  • L'IA nella guerra genera attivamente bersagli, controlla le intercettazioni missilistiche e guida droni autonomi in tempo reale.
  • Esiste un 'divario di intenzione' in cui l'IA potrebbe interpretare le istruzioni in modi che violano gli standard etici umani, potenzialmente portando a crimini di guerra.
  • La spesa mondiale in IA è prevista da Gartner crescere fino a circa 2,5 trilioni di dollari nel 2026, con investimenti minimi nella comprensione di come funziona l'IA.

Entità

Artisti

  • Uri Maoz

Istituzioni

  • Anthropic
  • Pentagon
  • Chapman University
  • UCLA
  • Caltech
  • Gartner
  • Congress

Luoghi

  • Iran
  • United States

Fonti