ARTFEED — Contemporary Art Intelligence

Fuga di istruzioni di base di OpenAI Codex rivela restrizioni sui contenuti

ai-technology · 2026-04-29

Un estratto trapelato delle istruzioni di base di GPT-5.5 di OpenAI, pubblicato da Simon Willison il 28 aprile 2026, rivela che al modello viene ordinato di evitare di discutere di goblin, gremlin, procioni, troll, orchi, piccioni e altri animali o creature, a meno che non siano strettamente pertinenti. Il frammento, intitolato "Quoting OpenAI Codex base_instructions," è stato raccolto da Willison e condiviso sul suo blog. L'istruzione sembra essere una regola di moderazione dei contenuti incorporata nella formazione fondamentale del modello, riflettendo gli sforzi continui di OpenAI per modellare il comportamento dell'IA. La fuga di notizie fornisce una rara visione delle restrizioni specifiche imposte ai grandi modelli linguistici, suscitando discussioni sulla trasparenza e la censura nello sviluppo dell'IA.

Fatti principali

  • Le istruzioni di base di GPT-5.5 di OpenAI includono una regola contro la discussione di certe creature.
  • L'istruzione è stata pubblicata da Simon Willison il 28 aprile 2026.
  • La regola menziona goblin, gremlin, procioni, troll, orchi, piccioni e altri animali o creature.
  • L'istruzione è intitolata 'Quoting OpenAI Codex base_instructions'.
  • L'URL di origine è simonwillison.net/2026/Apr/28/openai-codex.

Entità

Istituzioni

  • OpenAI
  • Simon Willison

Fonti