OpenAI正在组建一支新的安全团队,由首席执行官SamAltman领导,董事会成员包括AdamD'Angelo和NicoleSeligman。该委员会将就“OpenAI项目和运营的关键安全决策”提出建议——这是几位关键的AI研究人员本月离开公司时表达的担忧。
新团队的首要任务是“评估并进一步开发OpenAI的流程和保障措施”。然后,它将向OpenAI董事会提交调查结果,安全团队的三位领导人均在董事会任职。然后,董事会将决定如何实施安全团队的建议。
该团队的成立是在OpenAI联合创始人兼首席科学家IlyaSutskever离职之后进行的,IlyaSutskever去年支持董事会推翻Altman的企图。他还共同领导了OpenAI的Superalignment团队,该团队的成立旨在“引导和控制比我们更聪明的人工智能系统”。
超级对齐团队的另一位联合领导人JanLeike在Sutskever离开后不久宣布离职。Leike在X上的一篇文章中表示,OpenAI的安全“让位于闪亮的产品”。据Wired报道,OpenAI此后解散了超级对齐团队。上周,OpenAI政策研究员GretchenKrueger宣布辞职,理由是类似的安全问题。
除了新的安全委员会之外,OpenAI还宣布正在测试一种新的AI模型,但并未确认它是否是GPT-5。
本月初,OpenAI发布了ChatGPT的新配音Sky,听起来与斯嘉丽·约翰逊(ScarlettJohansson)惊人地相似(Altman甚至在X上提到了这一点)。然而,约翰逊随后证实,她拒绝了Altman为ChatGPT配音的提议。Altman后来表示,OpenAI“从未打算”让Sky听起来像约翰逊,在公司选定配音演员后,他联系了约翰逊。整个事件让人工智能粉丝和评论家都感到担忧。
OpenAI新安全团队的其他成员包括准备负责人AleksanderMadry、安全负责人LilianWeng、校准科学负责人JohnSchulman、安全负责人MattKnight和首席科学家JakubPachocki。但由于有两名董事会成员(以及Altman本人)领导新的安全委员会,OpenAI似乎并没有真正解决其前员工的担忧。