连接伦理、信任和包容性:三家组织正在塑造负责任的AI未来

发布日期: 2024年8月29日 来源:Forbes

随着人工智能(AI)不断改变各行各业和社会,关于负责任的AI开发的讨论也变得愈发紧迫。确保AI系统的伦理性、可信度和包容性不仅是一个技术挑战,更是一种道德必要。AI4ALL的CEO Emily Reid, OneTrust的CEO Kabir Barday以及Partnership on AI的CEO Rebecca Finlay走在前沿,致力于确保AI开发优先考虑人类利益,促进多样性,并遵循伦理标准。

负责任AI开发的必要性

AI技术的快速进步带来了前所未有的创新和进步机会。然而,它也引发了关于隐私、偏见、责任以及不断浮现的意外后果的重大担忧。随着AI系统的普及和愈加复杂,未受控开发的风险也在急剧增加。

OneTrust在透明数据收集、简化合规自动化和执行数据政策方面开创了负责任使用数据和AI的新软件类别,由于隐私法规和AI采用的增加,OneTrust已被大量客户采纳。 CEO Kabir Barday承认隐私对世界和业务都有好处:“我们的年收入正接近$5亿的目标,并且已经有超过14000名全球客户。” 过去,负责任的技术会延缓创新速度,但今天Barday看到了一个不同的环境:“我们看到市场营销和数据团队正牵头隐私保护,意识到信任与AI项目的成功成正比。” 他补充道,公司在创新团队努力最大化数据使用与多个风险管理部门保护业务之间存在内部争斗。这种局面导致了创新冲动与减少潜在法律、伦理和安全风险需求之间的冲突。

AI4ALL致力于负责任AI开发的另一个重要方面:多样性和包容性。通过为少数群体提供AI教育项目和机会,AI4ALL旨在改变AI劳动力的构成,确保多元化的观点影响AI开发。AI4ALL的CEO Emily Reid阐述了组织的愿景:“我们的使命是培养世界所需的下一代AI变革者。实际上,列车已经启程;然而,我们可以选择AI未来的样子。这并不是已经固定的,而是将由下一代AI技术人员书写。”

Reid 的声明紧随近期 Women Who Code(WWC)的关闭,因缺乏资金而关闭。WWC 在运营的十年间,组织了超过 20,000 场社区主导的活动,并授予了 350 万美元的奖学金。 同样,在 6 月份, 投资了“近 2700 万美元到 40 家由有色人种女性领导的初创企业”的 风险基金 Fearless Fund 也面临法律挫折,因为联邦上诉法院判定其资助计划可能违反《民权法》。Reid 对这些事件作出回应:“多年来取得了许多进展,而我认为最近的裁员期已经部分地扭转了这些进展……我相信 IBM 的 Ginni Rometti 说过,AI 将改变 100% 的工作、100% 的行业和 100% 的职业,而我认为这不是夸张。”

人工智能合作联盟(PAI)于 2016 年由各行业的 AI 研究人员组成,认识到跨部门和跨专业领域合作的必要性,以推进负责任的 AI。PAI 包括公司、研究人员、民间社会和公众,他们共同努力,为 AI 的透明性建立行业标准。CEO Rebecca Finlay 解释了他们的努力,“PAI 的工作不仅仅是制定自愿标准。我们通过预测和理解技术变化及其对社会的影响,为组织做好应对新兴法规的准备。”

建立信任:核心原则

信任是支撑这三个组织工作的基本原则。

对于 OneTrust 来说,建立信任始于透明和合规。Barday 解释道:“信任是通过隐私和选择激活的。”他解释了如何通过第一方数据实现这一目标:“……营销团队看到依赖第三方数据不是他们的未来。必须是第一方数据。你能够捕获第一方数据的能力与你与客户之间的信任直接成正比,而这种信任是通过隐私、选择、控制和透明度激活的。公司正在部署这些关于同意和偏好管理的技术。”这种向第一方数据转变代表了公司在数据收集和客户关系处理方式上的重大变化。近期对主要科技公司的隐私侵犯罚款 支持了 Barday 的论点。Meta 因数据传输违规被罚处创纪录的 12 亿欧元罚款,而 TikTok 和 Instagram 因处理儿童数据不当分别被罚 3.45 亿欧元和 4.05 亿欧元。2023 年共计有 438 总计 GDPR 罚款,总额为 20.54 亿欧元。

从私营科技公司获得透明度似乎遥不可及。随着生成式AI的发展,不透明的算法依然存在。AI合作组织的Finlay认为,人类理解和互动AI系统非常重要,并解释道:“这就是为什么组织有必要公开其系统的构建方式及其在当前基准测试中表现的透明性,无论是能力还是潜在的危害。” Finlay指出公开报告的出现,如国家人工智能安全研究所, “在我们的安全基础模型部署指南中,我们与行业、学术界和民间社会的专家合作,阐明整个开发和部署生命周期的透明性报告。对于最先进的AI模型开发与部署者来说,这是一种良好的开始,用以建立审计和监控机制。”

此外,Finlay呼吁各组织积极听取那些开发、部署和监控AI系统人员的观点,以确保解决方案的可靠性和可持续性。同时,她强调,透明性是与外部利益相关者建立信任的关键,“这包括知情同意、清晰披露合成生成内容,以及关于个人何时及如何与AI系统互动的信息。”

AI4ALL的首席执行官Reid观察到,行业对AI的关注发生了显著变化。“在2023年,我与合作伙伴和顾问的许多对话都集中在生成式AI上。人们普遍担心不想被落下,希望了解如何利用这项技术。”然而,过去几个月她注意到,行业已经转向AI治理,企业在缺乏全面法律框架的情况下挣扎着管理风险。

Reid强调了由AI4ALL的创始人发现的一个关键差距:“李飞飞博士指出,政策和法律领域的专业知识与AI领域之间的重叠很少。这一差距特别令人担忧,因为技术进步的速度远远超过了立法和政策。我们需要更多拥有计算机科学背景的人参与或就与AI相关的政策和法律事务提供建议。”

应对大型语言模型(LLM)带来的人类挑战

大型语言模型已经出现,并带来了诸多损害:歧视性对待、操纵、放大现有社会偏见以及对某些群体的不公平结果,这些侵权行为削弱了人类自主权。各组织现在迅速指出这些对策并呼吁加以治理。AI伦理现在成为一种实践,而且全球范围内已有超过40项隐私和伦理法规出台。

随着大型语言模型(LLM)和先进算法的日益普及,AI合作组织(Partnership on AI (PAI))、OneTrust和AI4ALL正在分别应对相关风险和影响,并探讨如何引入变革。

PAI认识到大型语言模型对社会的深远影响,正在努力建立其负责任发展的指南。Finlay描述了他们的积极方法:”我们发布了一些最早的指导意见,重点关注开放基础模型的发布,并相信开放创新生态系统支持更多的竞争和外部监督,虽然也有一些边际风险。”这些指南包括合成媒体的创建和使用,基础模型的部署,人口数据的使用,数据供应链中工人的道德待遇,AI对劳动和经济的影响以及机器学习系统的文档编写。

PAI的努力还包括开发伦理AI部署框架和促进AI系统的透明度。他们正应对由大型语言模型生成的合成媒体潜在滥用问题,Finlay展示道:”我们的合成媒体框架得到了包括OpenAI在内的18个组织的机构支持,他们最近分享了一个案例研究,说明他们在DALL-E的披露机制建设中如何考虑了该框架。”。

对于OneTrust,他们的重点是解决由大型语言模型带来的数据治理和合规问题。Barday阐述了这些问题的关键性,并指出数据治理框架正在演变以应对数据管理和使用中的新挑战。公司们认识到,所有数据,无论其来源,均需要更高水平的治理,包括特定用途的属性。此转变超越了传统的数据访问治理,主要集中于数据敏感性和访问控制。Barday确认道:”公司们开始意识到,他们拥有的任何数据,无论是爬取的,第一方收集的,还是第三方的,都需要一个新的治理水平,而这个新的治理水平是数据的特定用途属性。”这种方法为公司们提出了重要问题,特别是那些从各种来源收集数据的公司。Barday解释道:”……如果一家公司去爬取了一堆线上数据,那么这家公司需要问的问题是,他们收集了什么数据?那些数据的消费者如何向你提供用途说明?你有什么证明文件证明你有合法依据拥有那些数据?”

他进一步警告公司们必须现在评估他们当前的数据收集方法的风险,”所有公司都在承担风险……如果一家公司做错了,那么后果将是巨大的,而且在未来几年内会显现出来,因为数据删除命令的后果。想象一下,如果OpenAI因某个小错误而受到执行行动,这个错误违反了一项法规,那么监管机构可以启动一个数据删除命令,这将关闭整个通用大型语言模型。”。

最近有一篇来自Wired 的文章探讨了这个问题。Hugging Face 的应用政策研究员 Lucie-Aimée Kaffee 指出,“OpenAI 的 GPT-4o 系统卡并未详细说明模型的训练数据或这些数据的所有权。‘在创建跨多种模式的大型数据集(包括文本、图像和语音)时,需要解决同意的问题。’”

AI4ALL 通过注重教育和多样性来应对算法和大语言模型(LLM)的挑战。Reid 认识到 AI 素养的重要性:“我非常相信 AI 素养的必要性,不仅仅是指学生能够熟练使用 AI 工具……这不一定等同于能够理解机器内部的真正原理和算法的内在机制。”

通过教育未来多元化的 AI 从业者,AI4ALL 旨在确保LLM 和其他 AI 技术的发展考虑到广泛的观点和潜在影响。Reid 指出:“如果我们现在不在技术人员群体的多样性方面做出一些改变,如果我们不在行业标准上做出一些关于可靠性、人本 AI、责任和伦理的调整……那么我认为我们正走在一条非常令人担忧的道路上。”

性别化的AI:语音助理拟人化的伦理影响

Reid 警告的一个问题领域是日益增加的 AI 拟人化,特别是在性别和语音助理方面。她观察到,人类与能通过图灵测试的 AI 的互动复杂性,以及许多用户对类人 AI 接口的偏好。Reid 对女性编码语音助理的普遍性表达了担忧,指出:“绝大多数语音助理以某种方式具有女性编码,无论是名字、声音,或两者兼有。这令我非常担忧,部分原因是它继续将女性置于助手或帮手的刻板印象位置。”

她推论道,尽管开发者可能会根据用户偏好选择女性声音,但这种做法引发了伦理问题:“有些聊天机器人可以提供关于个人情况的建议,这引发了关于依赖技术获取情感支持的潜在问题。如果有人依据这些建议采取行动,谁应承担法律责任?”

随着人工智能的进步,Reid 认为,这引发了关于是否适合将情感劳动外包给聊天机器人的争论。拟人化假设人类可能会因赋予 AI 以人类推理而高估其能力,并信赖其提供的建议或执行的任务,而这些正是技术未必具备处理能力的。用户可能会以较少的审视接受 AI 生成的输出,随着时间的推移,依赖程度增加,导致在区分人类与计算机生成的互动方面出现困难。

通过叠加女性声音生成的互动,信任感可以很容易地建立起来,人们期望该技术在某种程度上能够进行道德推理。参考这篇Wired文章,OpenAI引入了他们的语音模式,并遭到了斯嘉丽·约翰逊的公开责难。系统卡片中的一个部分被称为“拟人化和情感依赖”,这一部分突显了当用户将人类特质归因于AI系统时所出现的问题,这种倾向似乎因AI的类人声音能力而加剧。

“OpenAI备灾部门负责人华金·基尼奥内罗·坎德拉表示,语音模式可能会发展成为一个独特而强大的界面。他还指出,GPT-4o带来的这种情感效应是有积极意义的,例如帮助那些孤独的人或需要练习社交互动的人。”

里德警告说:“我认为我们需要进行更多细致的讨论,探讨我们的默认助手声音应该是什么样的、有哪些可更改的选项,以及如何正确评估在隐私、伦理误解和社会心理影响方面的风险和危害。”

应对挑战:隐私、伦理和治理

尽管OneTrust、AI4ALL和PAI取得了进展,但在推进其使命的过程中仍面临持续的障碍。最大化利润和以人为本的成果之间的内部张力仍然存在,这决定了在AI开发中的投资路径和资源分配方向。

巴德尔承认了跟上不断变化的隐私法规的挑战。“AI创新的速度惊人,关键在于我们继续开发能帮助公司遵守这些法规的解决方案,同时不抑制创新。”

里德强调了在AI中实现包容性的障碍,指出“要确保AI真正代表我们多元化的社会,还有很多工作要做。这不仅需要教育,还需要在AI开发和部署方式上进行系统性变革。”

里德把当前的AI革命与互联网的早期日子进行了比较,认为AI有潜力成为社会中的一个重要平等化器。她承认AI的变革潜力,同时警告其在现有社会结构中的整合:“虽然AI技术提供了积极变革的机会,但它们并不仅仅存在于一个真空中。它们将不可避免地受到并融入我们当前的政治、社会和经济体系。”

里德强调与AI进行有意和积极互动的重要性:“我们对AI的未来抱有很多希望,但其中很大一部分取决于我们选择做什么。我们需要深思熟虑、战略性地积极参与,怀抱希望地利用这些技术的机会来改变一些现有的系统。”

更改那些可能已经运行了几十年但对社会成员没有作用的系统,这一任务以前可能看起来令人胆怯。AI合作组织的CEO芬利同意巴德尔的观点,即问责与创新可以共存,但这同时意味着思维方式的转变,“AI不仅仅是一种工具;它是一种范式转变。企业领导者需要认识到这一点,并将AI与更广泛的业务目标保持一致。通过培育负责任的AI开发文化,即使是资源有限的初创企业也能迈出重要一步。这包括鼓励持续学习,关注最佳实践,优先考虑公平和透明性。”

负责任AI的未来:前行之路

伦理、信任和包容性的融合对负责任的人工智能发展至关重要。对人工智能生态系统中的利益相关者来说,关于人工智能重大影响的主流认知已经开始形成。法律正在迅速赶上,大型科技公司将不再有在雷达下操作的奢侈。像OneTrust、AI4All和Partnerships on AI这样的伦理倡导社区正在建立联盟,以将人工智能的承诺带给每个人。

直到现在,大型科技公司一直在决定人工智能的未来。我们还有时间去扭转人工智能造成的影响。艾米丽·里德哲理性地发问:“人工智能将改变世界。谁将改变人工智能?”

总结:

当前,人工智能(AI)的迅猛发展正在重塑各行各业。负责任的AI开发成为各界关注的焦点,不仅涉及领先的技术实施,还包括伦理责任、数据隐私和多样性包容性。AI4ALL、OneTrust和PAI三大组织在推动负责任AI开发方面做出了积极的努力。AI4ALL通过提供教育机会和项目促进少数群体参与AI开发,以确保AI技术人员的多样性。OneTrust则专注于数据治理和合规,推动隐私保护变为一项商业优势,实现年收入接近5亿美元。PAI则通过制定行业标准和提供透明性报告,支持负责任的AI发展。

这些组织的共同努力旨在平衡AI技术进步与社会责任之间的关系,以应对隐私侵犯、社会偏见和伦理问题等挑战。与此同时,借助AI技术提升品牌影响力和市场竞争力也成为企业关注的重点。光年AI不仅在AI技术应用上表现出色,更在流量管理和效率提升方面拥有独特的优势。

选择光年AI,让私域流量管理变得智能又便捷,助您轻松赢得市场。光年AI平台集成了国内外主流AI技术,支持多种应用场景和灵活的AI工作流,为企业提供精准触达客户、提高转化率的解决方案。在AI赋能下,光年AI助力企业实现业务快速增长和市场突破。用光年AI,智能化私域流量管理,确保每一步营销都能有效转化,让您的品牌在激烈竞争中脱颖而出。