OpenAI dettaglia i controlli di sicurezza per l'agente di codifica Codex
Il 7 maggio 2026, OpenAI ha pubblicato un riepilogo tecnico che descrive in dettaglio i protocolli di sicurezza per il suo agente di codifica Codex, che valuta autonomamente i repository, esegue comandi e interagisce con gli strumenti di sviluppo. Viene impiegato il sandboxing per stabilire i limiti di esecuzione, mentre le politiche di approvazione regolano le azioni considerate ad alto rischio. Una funzione di revisione automatica approva automaticamente le richieste a basso rischio. L'accesso alla rete è regolato da una politica che consente destinazioni note e blocca quelle sconosciute. Le credenziali utente sono protette nel portachiavi del sistema operativo, con accessi effettuati tramite ChatGPT e collegati a spazi di lavoro aziendali. I comandi shell potenzialmente dannosi possono essere bloccati o richiedere approvazione. Le esportazioni di log OpenTelemetry forniscono telemetria per prompt utente, approvazioni di strumenti e scelte di rete, con log delle attività accessibili tramite la OpenAI Compliance Platform. OpenAI utilizza anche i log di Codex in combinazione con un agente di triage di sicurezza basato su IA per analizzare le intenzioni e identificare deviazioni dal comportamento previsto. I controlli implementati sono applicati tramite requisiti gestiti dal cloud, preferenze gestite di macOS e file di requisiti locali che non possono essere modificati dagli utenti.
Fatti principali
- Codex è un agente di codifica che esamina autonomamente i repository, esegue comandi e interagisce con gli strumenti di sviluppo.
- Il sandboxing definisce i confini tecnici di esecuzione per Codex.
- La politica di approvazione determina quando Codex deve chiedere il permesso per agire al di fuori del sandbox.
- La modalità di revisione automatica approva automaticamente le richieste a basso rischio per ridurre le interruzioni.
- La politica di rete gestita consente destinazioni previste e blocca domini sconosciuti.
- Le credenziali OAuth di CLI e MCP sono memorizzate nel portachiavi del sistema operativo.
- L'accesso è forzato tramite ChatGPT e vincolato a spazi di lavoro aziendali.
- I comandi shell pericolosi possono essere bloccati o richiedere approvazione.
- Codex supporta l'esportazione di log OpenTelemetry per eventi come prompt, approvazioni, risultati degli strumenti e decisioni di rete.
- I log delle attività sono disponibili tramite la OpenAI Compliance Platform per clienti Enterprise e Edu.
- OpenAI utilizza un agente di triage di sicurezza basato su IA che ispeziona i log di Codex per distinguere il comportamento previsto dalle anomalie.
- I controlli vengono applicati tramite requisiti gestiti dal cloud, preferenze gestite di macOS e file di requisiti locali.
- Il post è stato pubblicato il 7 maggio 2026.
Entità
Istituzioni
- OpenAI
- ChatGPT
- OpenAI Compliance Platform