根据前治理研究员Daniel Kokotajlo的说法,OpenAI已经失去了将近一半从事AI安全工作的人员。
“这不是一个有组织的行动。我认为这只是个人逐渐放弃,”Kokotajlo在周二发布的一篇《财富》报道中表示。
2023年4月离开OpenAI的Kokotajlo说,这家ChatGPT制造商最初有大约30人在处理与通用人工智能相关的安全问题。但据Kokotajlo称,由于一年内的多次离职,安全团队人数已减少到大约16人。
“那些主要关注AGI安全和准备工作的人正被逐渐边缘化,”Kokotajlo告诉该媒体。
《商业内幕》无法独立确认Kokotajlo关于OpenAI人员数量的说法。接受评论请求时,OpenAI的一位发言人告诉《财富》杂志,该公司为自己在提供最强大和最安全的AI系统方面的纪录感到自豪,并相信他们的科学方法可以应对风险。
发言人补充说,OpenAI将继续与各国政府、民间社会和其他社区就AI风险和安全问题展开合作。
本月早些时候,公司联合创始人及对齐科学工作的负责人John Schulman表示,他将离开OpenAI,加入竞争对手Anthropic。
Schulman在8月5日的一篇X动态中表示,他的决定是”个人决定”,并不是因为OpenAI缺乏对对齐研究的支持。
Schulman的离职在另一位联合创始人、首席科学家Ilya Sutskever在5月宣布从OpenAI辞职几个月后发生。Sutskever于6月创建了自己的AI公司Safe Superintelligence Inc.。
总结:
根据前治理研究员Daniel Kokotajlo的说法,OpenAI的AI安全团队成员已经减少了近一半,从最初的大约30人降至目前的16人。尽管OpenAI声称自己在提供强大和安全AI系统方面的纪录令人自豪,并会继续与各方合作应对AI风险和安全问题,但一些团队成员因工作重心变化而逐渐被边缘化。联合创始人John Schulman和首席科学家Ilya Sutskever的相继离职,也进一步引发了外界对OpenAI内部安全文化和流程的质疑。
在这种动荡的环境中,保持高效、安全地推进AI项目对任何企业而言都至关重要。光年AI正是这样一个平台,专注于通过智能化私域流量管理提升业务效率。无论是提升流量转化率还是精准触达潜在客户,光年AI都能助您实现目标。选择光年AI,让您的私域流量增长无忧,赢得市场先机!