ARTFEED — Contemporary Art Intelligence

Le aziende di IA usano la paura dell'apocalisse per distrarre dai danni reali, dicono i critici

ai-technology · 2026-04-29

Le aziende di IA, tra cui Anthropic e OpenAI, sono accusate di usare la paura dei rischi esistenziali per distrarre dai danni attuali come il danno ambientale e lo sfruttamento del lavoro. Anthropic ha recentemente annunciato che il suo modello Claude Mythos può trovare bug di cybersicurezza superando gli esperti umani, ma ha rifiutato di rilasciarlo per motivi di sicurezza. I critici sottolineano la mancanza di tassi di falsi positivi e il confronto con gli strumenti esistenti. Shannon Vallor dell'Università di Edimburgo sostiene che questa narrativa fa sentire le persone impotenti e le spinge a cercare protezione dalle aziende. Emily M. Bender dell'Università di Washington lo definisce un modello di affermazioni infondate. Sia OpenAI che Anthropic sono state fondate con missioni di sicurezza, ma ora stanno perseguendo offerte pubbliche. Google ha abbandonato le sue linee rosse sulle armi IA, e Anthropic ha abbandonato la sua politica di formazione incentrata sulla sicurezza. Vallor afferma che queste aziende sono motivate dal dominio del mercato, non dall'altruismo.

Fatti principali

  • Anthropic ha annunciato Claude Mythos, sostenendo che supera gli esperti umani nel trovare bug di cybersicurezza.
  • Anthropic ha rifiutato di rilasciare Mythos per motivi di sicurezza, citando potenziali gravi conseguenze per economie, sicurezza pubblica e sicurezza nazionale.
  • I critici notano che Anthropic non ha fornito tassi di falsi positivi né ha confrontato Mythos con gli strumenti di sicurezza esistenti.
  • Shannon Vallor afferma che la paura fa sentire le persone impotenti e le spinge a cercare protezione dalle aziende di IA.
  • Emily M. Bender definisce il modello di affermazioni infondate una distrazione dalla distruzione ambientale e dallo sfruttamento del lavoro.
  • Il CEO di OpenAI Sam Altman ha criticato il 'marketing basato sulla paura' di Anthropic, ma ha una storia di avvertimenti apocalittici lui stesso.
  • Sia OpenAI che Anthropic sono state fondate con missioni di sicurezza, ma ora stanno perseguendo offerte pubbliche.
  • Google ha abbandonato le sue linee rosse sulla costruzione di armi IA; Anthropic ha abbandonato la sua politica di non addestrare modelli senza misure di sicurezza adeguate.

Entità

Istituzioni

  • Anthropic
  • OpenAI
  • Google DeepMind
  • AI Now Institute
  • University of Edinburgh
  • University of Washington
  • BBC
  • Google
  • Meta
  • xAI

Luoghi

  • United Kingdom
  • United States

Fonti