(三藩市18日讯)创建ChatGPT的美国公司 OpenAI的前高级员工莱克当地时间周五表示,OpenAI将“炫目的产品”置于安全之上,并透露他因在公司主要目标上产生分歧且达到“临界点”,故选择了辞职。
英国《卫报》报导,莱克是OpenAI的主要安全研究员,他在OpenAI推出ChatGPT最新版本GPT-4o几天后辞职。在此之前,OpenAI首席科学家、联合创办人苏茨克韦尔周二在社交媒体X上宣布,他将从OpenAI离职。
苏茨克韦尔最初在去年11月支持解雇OpenAI首席执行员阿尔特曼的职务,但在公司内部动荡几天后,他又支持了阿尔特曼的复职,之后其名字则在董事会名单中消失。
早在去年7月,苏茨克韦尔就与莱克等人组建了一个名为“超级对齐”的团队,以研究使人工智能(AI)与人类的利益保持一致。
应为AI安全性投入更多资源
莱克周五在社交媒体X详细说明了离职原因,他写道:“过去几年,安全文化和流程已经让位于炫目亮丽的产品。”
OpenAI的成立目标,是确保所有人都能从它描述的“比人类更聪明的人工智能系统”中受益。
他表示,他长期以来一直在与OpenAI的领导层就公司的优先事项产生分歧,但这种对立“终于达到了临界点”。
莱克表示,OpenAI还开发了Dall-E图像生成器和Sora视频生成器,它应该为下一代人工智能模型对社会的影响、保密性和安全性等问题投入更多资源。
“这些问题很难解决,我担心我们并没有走上正确的轨道。”他补充,他的团队越来越难以进行研究。
“建造比人类更聪明的机器本质是一项危险的尝试。OpenAI正在代表全人类承担巨大的责任,”莱克写道,OpenAI“必须成为一家以安全为首的通用人工智能(AGI)公司”。
阿尔特曼在X上发帖回应了莱克的帖子,感谢他这名前同事对公司安全文化所做的贡献。他写道:“他说得对,我们还有很多事情要做;我们致力于完成这些工作。”
莱克的警告出现之际,一个国际人工智能专家小组发布了首份关于人工智能安全性的报告。该报告称,对于强大的人工智能系统逃避人类控制的可能性存在分歧。
然而,它警告称,监管机构可能会因技术的快速进步而落后,并警告“技术进步的速度与监管反应的速度之间可能存在差距”。