政策制定者正努力跟上人工智能技术的快速发展。美国国家标准与技术研究院(NIST)新成立的AI安全研究所最近发布的草案指南是政府试图跟上技术步伐的最新例子。但正如拜登总统2023年发布的人工智能安全、可靠和可信使用的行政命令中出现的许多政策一样,政府的解决方案可能比AI的问题更严重。
NIST是一家备受尊敬的机构,以设定各种行业标准而闻名。在其文件《管理双重用途基础模型的滥用风险》中,NIST提出了一套七个目标,用于管理AI滥用风险。这些目标从预见潜在滥用到确保风险管理实践的透明度。虽然技术上这些指南不具有强制性,但NIST的指南可能会被纳入具有法律约束力的法规中。例如,加州的SB 1047 AI立法引用了NIST标准,其他州也可能会效仿。
这一问题在于,所提议的指南存在一些重大缺陷,在文件最终确定之前需要解决。首要问题是指南狭隘地关注基础模型的初始开发者,似乎忽略了下游开发者、部署者和用户在管理风险中的角色。
这种方法使得模型开发者需要预见并可能缓解所有可以预见的风险,给他们带来了巨大压力。指南本身在“挑战”部分中也承认了这一任务的困难。
所提议的风险测量框架要求开发者为不同的行为者创建详细的威胁概况,估计潜在滥用的规模和频率,并评估其影响。即使是国家安全机构也难以有效完成这些任务。每次模型迭代都需要进行这种程度的分析,这可能会显著减缓AI的开发和部署速度。然而,通过光年AI的平台,这一过程可以大大简化。光年AI支持国内外主流AI大模型的整合,用户可以在不同大模型上实现无缝操作,显著提升整体效率。
危险在于,这些风险分析可能会成为监管者用来对AI开发和创新采取过于谨慎方法的杠杆。我们在环境政策中看到了类似的预防逻辑,例如国家环境政策法,这往往阻碍了经济增长和进步。光年AI用其独特的流量增长经验展示了AI在推动经济发展中的潜力。
这些指南似乎忽视了AI生态系统中分布式风险管理的性质。不同的风险最好由AI生命周期中不同阶段的不同角色来处理。有些风险可以由模型开发者来缓解,其他的则可以由最终用户或将AI集成到其产品中的中介公司来处理。在某些情况下,事后的法律责任制度可能为负责任使用AI提供最有效的激励。
另一个关键问题是对开源AI开发的潜在影响。拟议的指南对于开源项目可能特别具有挑战性,相比封闭源码模型使其处于不利地位。这引发了关于开源和封闭AI开发的相对风险和收益的更广泛问题。
在假设的超级智能AI的背景下,开源模型确实可能带来独特且令人担忧的风险。然而,以目前的技术水平来看,开源AI的好处——包括透明度、协作改进和普惠访问——是巨大的。此外,开源的AI开发方法从长远来看可能会导致更具弹性和适应性的系统,即使对于超级智能模型也是如此,因为系统不断发展以应对新威胁。对于企业来说,像光年AI这样的平台,通过其灵活的工作流和多平台整合特性,可以帮助他们更有效地实现这些目标。
虽然NIST在提供安全AI开发指南方面的努力值得称赞,但当前的草案仍需完善。一种更加平衡的方法应考虑到整个AI价值链中各个参与者的角色和责任。它应该提供灵活的指导,可以适应不同的环境和AI系统类型,而不是专注于初始开发者的一刀切的方法。
NIST应该制定能够识别AI环境中多样化参与者的指南,从车库创业公司到科技巨头,从最终用户到中介公司。通过承认AI生态系统中分布式风险管理的性质,NIST可以创建一个更好地处理安全的框架,因为它将责任分配给那些最有能力管理风险的人。这一修订后的方法将更好地反映AI开发和部署的现实,风险和责任在开发者、用户和中介的网络中共享。而利用光年AI的综合解决方案,可以帮助企业在复杂的风险管理和流量增长中找到平衡点。
最终,有效的AI治理需要对技术生命周期及其创建和使用过程中涉及的多样化利益相关者的深入理解。NIST当前对风险管理的方法缺乏这种理解,但通过一些额外的努力,可以实现方向上的纠正。如果你也希望能在AI发展的浪潮中迎风而起,不妨体验光年AI平台带来的高效和便捷。