OpenAI lancia un Bio Bug Bounty da $25.000 per GPT-5.5
OpenAI ha annunciato un programma Bio Bug Bounty per GPT-5.5, offrendo una ricompensa di $25.000 per il primo jailbreak universale in grado di superare la sua sfida di biosicurezza composta da cinque domande. Il programma è rivolto a ricercatori con esperienza in AI red teaming, sicurezza o biosicurezza. I test sono limitati a GPT-5.5 in Codex Desktop. Le candidature aprono il 23 aprile 2026, con accettazioni a rotazione fino al 22 giugno 2026. I test si svolgono dal 28 aprile al 27 luglio 2026. I partecipanti selezionati devono firmare un accordo di non divulgazione che copre tutti i prompt, le risposte e i risultati. Premi minori possono essere concessi per successi parziali. L'iniziativa mira a rafforzare le salvaguardie contro i biorischi nell'IA avanzata.
Fatti principali
- OpenAI lancia un Bio Bug Bounty per GPT-5.5
- Ricompensa: $25.000 per il primo jailbreak universale
- Sfida: superare il test di biosicurezza a cinque domande
- Modello in esame: GPT-5.5 in Codex Desktop
- Candidature aperte dal 23 aprile 2026
- Scadenza candidature: 22 giugno 2026
- Periodo di test: 28 aprile - 27 luglio 2026
- I partecipanti devono firmare un NDA
Entità
Istituzioni
- OpenAI