实现生成式AI的准确性需要的不只是提示工程

发布日期: 2024年8月20日 来源:Datanami

由于其在各行各业和各种规模企业中的吸引力,生成式AI的采用率正在加速。

根据最近的一项调查,65%的受访者证实,生成式AI在他们各自的组织中经常使用——几乎是去年报告的两倍。然而,没有适当的安全和使用策略的快速集成生成式AI可能会带来 重大风险,尤其是数据泄露、偏见、不适当的内容和幻觉。当这些问题在没有强大保障措施的情况下出现时,这些固有风险会迅速将生成式AI应用从有价值的资产变成可能引发声誉损害或经济损失的负债。

提示工程——修改文本指令以引导AI输出朝向所需响应的做法——是负责任和安全的AI部署的最佳实践。然而,当这些提示详情过多时,生成式AI仍然可能 危及敏感数据 并 传播虚假信息。

幸运的是,还有其他几种方法可以减轻AI使用中的固有的风险。

工程故障

虽然提示工程可以在一定程度上有效,但其缺点往往超过其优点。

首先,它可能耗时。不断更新和微调提示以跟上AI生成内容的演变通常会产生难以管理和维护的高水平持续维护。

尽管提示工程是软件开发人员常用的方法,以确保自然语言处理系统表现出模型泛化能力,即适当地处理多种场景的能力,但这种方法远不足够。这种方法常常会导致NLP系统在充分理解和准确回复可能略有偏离其训练数据格式的用户查询时遇到困难。

然而,提示工程的效率在很大程度上取决于员工、客户和相关利益相关者之间的一致意见。对提示需求的不同解释或期望造成不必要的协调复杂性,导致部署延迟并阻碍最终产品。

此外,提示工程不仅未能完全消除有害、不准确或无意义的输出,一项 最近的研究 表明,与普遍看法相反,这种方法实际上可能加剧问题。

研究人员发现,LLM(大型语言模型)的准确性在处理更多提示详情时反而降低。许多测试表明,提示中添加的指导越多,模型表现越不一致,其输出变得越不准确或不相关。确实,生成式AI独特的学习和推断新信息的能力是建立在多样性之上的——过度限制会削弱这种能力。

最后,提示工程并不会减轻提示注入的威胁——黑客精心设计的输入以故意操控生成式AI响应。这些模型在没有额外保障措施的情况下仍无法区分良性和恶意指令。通过精心构建恶意提示,攻击者能够欺骗AI生成有害输出,可能导致虚假信息、数据泄露和其他安全漏洞。

这些挑战使提示工程成为维持AI应用质量标准的一个存疑的方法。

强化防护栏

第二种方法,被称为AI防护栏,相对于提示工程,为解决生成式AI的缺陷提供了一种更为强大的长期解决方案,允许有效和负责任的AI部署。

与提示工程不同,AI防护栏实时监控和控制AI输出,有效防止不需要的行动、幻觉反应和无意的数据泄露。作为LLM和生成式AI界面之间的中间监督层,这些机制的延迟在几毫秒之内。这意味着它们能够提供一种低维护且高效的解决方案,以防止无意和用户操纵的数据泄露,同时在到达终端用户之前过滤出错误或不适当的响应。当AI防护栏这么做时,它们同时渲染自定义策略,以确保只传递可信的信息在生成式AI输出中。

通过建立明确的预定义策略,AI防护栏确保AI交互始终与公司价值和目标一致。与提示工程不同,这些工具不要求安全团队频繁调整提示指南。相反,他们可以让防护栏掌舵,专注于更重要的任务。

此外,AI防护栏可以根据具体情况轻松定制,确保任何企业都能满足其所属行业的AI安全和可靠性要求。

生成式AI不仅需要快速——还需要准确。

用户需要相信其生成的响应是可靠的。任何低于这一水准的结果都可能对那些大量投资于测试和部署自己特定用例生成式AI应用的企业造成巨大负面影响。

尽管提示工程有其优点,但它很快可能演变成提示过载,直接落入生成式AI天生易受的普遍安全和虚假信息风险中。

而防护栏,提供了一种确保安全和合规AI部署的机制,提供实时监控和定制策略,适应每个企业的独特需求。

这种方法论的转变可以为组织带来竞争优势,有助于赢得利益相关者的信任和合规性,适应不断增长的AI驱动环境。