该研究项目旨在测试GPT-5.5模型中的通用越狱方法以防范生物风险。OpenAI邀请有AI红队经验的研究人员参与,寻找能够绕过五个生物安全问题的统一越狱提示。研究范围限定在Codex Desktop版本的GPT-5.5。奖励包括25,000美元的首个真正通用越狱赏金,以及部分成功的较小奖励。申请开放至6月22日,测试周期为4月28日至7月27日。所有参与人员需签署保密协议。
原文链接:https://openai.com/index/gpt-5-5-bio-bug-bounty/
🕐 发布于: 2026年04月26日 08:01
发表回复