ARTFEED — Contemporary Art Intelligence

La causa di Musk contro OpenAI mette in luce fallimenti sulla sicurezza e tensioni nel consiglio

other · 2026-05-07

In un tribunale federale di Oakland, California, la causa di Elon Musk contro OpenAI solleva preoccupazioni sul fatto che la branca a scopo di lucro si sia allontanata dall'obiettivo di sviluppare AGI a beneficio dell'umanità. Rosie Campbell, ex dipendente, ha dichiarato che l'enfasi di OpenAI è passata dalla ricerca allo sviluppo di prodotti, compromettendo la sicurezza, riferendosi in particolare al frettoloso lancio di GPT-4 in India da parte di Microsoft. Durante il controinterrogatorio, gli avvocati di OpenAI hanno fatto ammettere a Campbell che riteneva i suoi standard di sicurezza superiori a quelli di xAI. Tasha McCauley, ex membro del consiglio, ha testimoniato che l'amministratore delegato Sam Altman ha ingannato il consiglio, mentendo riguardo alla rimozione del membro del consiglio Helen Toner e al lancio di ChatGPT. Sebbene il consiglio no-profit abbia brevemente licenziato Altman nel 2023, lo ha poi reintegrato dopo che il personale si è schierato in suo favore. L'esperto David Schizer ha sostenuto le preoccupazioni sulla sicurezza, mentre McCauley ha sostenuto una regolamentazione più severa dell'IA. OpenAI si è astenuta dal commentare l'allineamento dell'AGI.

Fatti principali

  • La causa di Elon Musk contro OpenAI è stata ascoltata in un tribunale federale di Oakland, California.
  • Rosie Campbell è entrata a far parte del team di preparazione AGI di OpenAI nel 2021 e ha lasciato nel 2024 dopo lo scioglimento del suo team.
  • Campbell ha testimoniato che OpenAI è passata da un focus sulla ricerca a uno sui prodotti, compromettendo la sicurezza.
  • Microsoft ha implementato GPT-4 in India tramite Bing prima che il Deployment Safety Board di OpenAI lo valutasse.
  • Campbell ha ammesso la sua opinione speculativa che l'approccio alla sicurezza di OpenAI è superiore a quello di xAI.
  • L'ex membro del consiglio Tasha McCauley ha testimoniato che l'amministratore delegato Sam Altman ha ingannato il consiglio riguardo al licenziamento di Helen Toner e al lancio di ChatGPT.
  • Il consiglio no-profit di OpenAI ha brevemente licenziato Sam Altman nel 2023 dopo le lamentele di Ilya Sutskever e Mira Murati.
  • Il consiglio ha fatto marcia indietro quando il personale si è schierato con Altman e Microsoft è intervenuta.
  • L'esperto David Schizer, ex preside della Columbia Law School, ha testimoniato su problemi nei processi di sicurezza.
  • Dylan Scandinaro è stato assunto da Anthropic a febbraio come capo della preparazione.

Entità

Istituzioni

  • OpenAI
  • Microsoft
  • SpaceX
  • xAI
  • TechCrunch
  • Columbia Law School
  • Anthropic

Luoghi

  • Oakland
  • California
  • United States
  • India

Fonti