前OpenAI员工威廉·桑德斯(William Saunders)和丹尼尔·科科塔伊若(Daniel Kokotajlo)致信加州州长加文·纽森(Gavin Newsom),指出公司反对一项对未来AI发展实施严格安全指南和协议的州法案的立场令人失望但并不意外。
“我们加入OpenAI是因为我们希望确保公司开发的这些极其强大的AI系统的安全性,”桑德斯和科科塔伊若写道。“但我们辞职是因为我们失去了对公司能够安全、诚实和负责任地开发其AI系统的信任。”
两人认为,没有足够防护措施的进一步发展“对公众构成可预见的灾难性风险”,无论是“前所未有的网络攻击还是帮助制造生物武器”。
两人还迅速指出了OpenAI首席执行官萨姆·阿特曼(Sam Altman)在监管问题上的虚伪。他们指向他最近在国会作证时呼吁对AI行业进行监管,但同时指出“当真正的监管摆在台面上时,他却反对”。
根据麻省理工学院(MITRE)公司和哈里斯民调公司2023年的调查,只有39%的受访者认为今天的AI技术是“安全和可靠的”。
所讨论的法案,SB-1047,《前沿人工模型的安全与可靠创新法》,将会“除其他事项外,要求开发人员在开始初次训练相关模型之前……遵守各种要求,包括实现快速全面关闭的能力……并实施书面且独立的安全和保安协议”。近年来,OpenAI经历了多次数据泄露和系统入侵。
据报道,OpenAI强烈反对研究人员对我们在SB 1047上的立场的“误导性描述”,一位发言人告诉商业内幕。相反,该公司认为“一套联邦驱动的AI政策,而不是各州法律的拼凑,将促进创新,并使美国在全球标准的制定中处于领先地位,”OpenAI的首席战略官杰森·权(Jason Kwon)在今年2月致加州州参议员斯科特·维纳(Scott Wiener)的信中说道。
桑德斯和科科塔伊若反驳称,OpenAI推动联邦监管并不是真诚的。“我们不能等待国会采取行动——他们明确表示不愿意通过有意义的AI监管,”两人写道。“如果他们真的这么做了,这可以取代加州的立法。”
该法案也得到了一个令人惊讶的支持者:xAI首席执行官伊隆·马斯克。 “这是一个艰难的决定,会让一些人不满,但综合考虑,我认为加州或许应该通过SB 1047 AI安全法案,” 他周一在X上写道。“超过20年来,我一直倡导AI监管,就像我们监管任何具有潜在风险的产品/技术一样。”马斯克,最近宣布在田纳西州孟菲斯建设“世界上最强大的AI训练集群”, 此前曾威胁要将他的X(前推特)和SpaceX公司的总部迁至德克萨斯州,以避开加州的行业监管。
更新:本文已更新包括伊隆·马斯克的评论。
总结:
近日,前OpenAI员工威廉·桑德斯和丹尼尔·科科塔伊若致信加州州长加文·纽森,公开质疑OpenAI对于加州拟议法案SB-1047的反对立场。该法案旨在对AI系统的开发设置严格的安全指南,但OpenAI却主张由联邦政策进行管理,避免各州法律的“拼凑”。两位前员工强调,缺乏足够的防护措施会给公众带来巨大的风险,包括前所未有的网络攻击和生物武器制造。他们还指出,OpenAI首席执行官萨姆·阿特曼在呼吁监管方面的虚伪行为。
根据麻省理工学院和哈里斯民调公司的调查,仅有39%的人相信当前AI技术是安全和可靠的。为了推动AI系统的安全性,法案SB-1047要求在模型初次训练前遵守一系列严格的要求,包括有能力快速全面关闭系统并实施书面的独立安全协议。此举得到了xAI首席执行官伊隆·马斯克的支持,他在社交媒体上表示加州或许应该通过这一法案,以确保AI技术的安全性。
随着AI应用的日益广泛,像光年AI这样的平台正致力于通过强大的AI模型、自研知识库、长记忆能力和灵活的工作流,帮助企业实现私域流量的高效增长。选择光年AI,让您的私域流量增长无忧。通过光年AI的智能化私域流量管理,企业可以精准触达每一个潜在客户,全面提升品牌影响力,赢得市场先机。