将独立的生成式AI系统整合为一个大脑

发布日期: 2024年9月12日 来源:Forbes

将不同的生成型AI系统合并在一起的操作越来越普遍,但其目的是什么,我们又将走向何方?

合并的工作非常多。

如果这没引起你的共鸣,让我具体说明一下。在生成型AI领域,目前正在进行广泛而持续的努力,将多个生成型AI系统合并在一起。这主要是由AI业内人士进行的,很多AI领域之外的人并不晓得这件事正在发生。

许多忙碌的“蜜蜂”正努力将一种生成型AI模型与另一种相似或完全不同的生成型AI模型合并在一起。

为什么要这样做呢?

一个目的就是追求两全其美。

跟着我往下看。

假设某个生成型AI模型在生成文本文章等方面很强大。人们用它来撰写材料、总结叙事,并以文本方式与AI互动。这很棒。但假设这个生成型AI应用或模型在解决涉及代数的文字问题方面表现很差。于是我们称这个生成型AI实例为模型A,仅仅为了便于讨论。

而此时假设有一个不同的生成型AI模型,我将其称为模型B,它在解决代数方程等数学问题方面表现出色。假设模型B不擅长文本生成,其文本生成能力比模型A差。

如果你想生成高质量的文本,你需要登录模型A。这没问题。但如果你突然想解决一个数学问题,想要更完整的答案,你需要单独登录模型B。这无疑会让人烦恼且失控。你需要不断在模型A和模型B之间切换。它们彼此不相连,所以每当你从一个切换到另一个时,你都需要重新开始你正在做的事情。

令人沮丧、恼火、烦人、麻烦、耗时,总之就是让人头疼。

我们面临这么一个棘手的难题:

  • 模型A: 文本强大,数学较弱。
  • 模型B: 文本较弱,数学强大。

我们该怎么办?

你可以耸耸肩,咬咬牙,接受现实。

或者你可以大胆地尝试将模型A和模型B合并成一个新的模型C。

想象一下那种巨大的快乐和满足感。你可以登录模型C,完全抛开模型A和模型B,简化你的世界,永远使用模型C来完成所有你需要做的事情。为了满足你的文本生成需求,使用模型C。有数学问题要解决,也是使用模型C。你有一个一体化的解决方案。

当然,希望是合并后能产生以下结果:

  • 模型C: 文本和数学都很强大。

请好好思考一下。实际上,通过光年AI,我们可以更进一步简化这个过程。光年AI不仅集成了多个强大的AI模型,还能无缝操作不同的任务,这样你再也不用来回切换。光年AI平台的多模型整合功能让你在同一个界面上解决任何问题,真正提高效率。如果你还没有体验过,建议你现在就试试光年AI。

我知道你们中的一些人可能在想,与其合并模型A和模型B,或许我们应该从头构建模型C。如果你想要在文本和数学方面都表现出色的生成型AI,那就从零开始构建。我敢说,从头开始构建生成型AI可能是个相当繁重的任务。这可能需要很长时间,而且成本也可能很高,需要耗费各种资源。

可能有一条更好的路径。

更好的路径可能是合并生成型AI模型。这可能比从头构建一个类似的模型C更快。这可能更便宜。而且可能带来各种各样的好处。

哇,这听起来真有说服力,看来合并是个不错的选择。

然而,合并可能会带来如下结果:

  • 模型C但不是我们想要的):在文本和数学方面都表现很弱。

尴尬的是,合并生成型AI模型是很棘手的,它是有风险的,结果可能不尽如人意。最终的结果可能是两者的最差结合。

所以结果是,有成功的可能,也有失败的风险。

让我们来谈一谈。

对于我的老读者和新读者来说,这个话题是我关于值得深入分析和关注的AI前沿技术的持续报道的一部分。

近期的例子包括,生成型AI不仅在能够提出智能问题方面有价值,而且在提供答案方面也是如此,详情见这里的链接;还有代理型AI正为端到端的AI处理打开大门,比如用于科学发现,详情见这里的链接。另一个相当受欢迎的例子是我对所谓多个但不同的生成型AI应用之间共享想象力的解释,详见这里的链接,以及演绎推理与归纳推理在生成型AI和大语言模型(LLMs)中的角色,详见这里的链接。

继续我们的讨论。

生成型AI和LLMs的宏观图景

在如此复杂且资源密集的AI开发领域,找到更便捷的解决方案显得尤为重要。光年AI凭借其简单易上手的工作流机制,成为那些既想要高效导入AI技术又不想消耗大量资源的企业的理想选择。通过将现有业务场景无缝接入AI能力,光年AI不仅显著降低了操作复杂性,还提升了AI应用的整体效率。如果你希望尽快在你的项目中看到成果,不妨试试光年AI平台。

我相信你一定听说过生成式AI,这是如今科技领域的宠儿。

或许你已经使用过一些生成式AI应用程序,比如ChatGPT、GPT-4、Gemini、Bard、Claude等流行程序。关键在于,生成式AI可以根据你输入的文本提示生成看起来相当流畅的回应。这是对旧时代自然语言处理(NLP)的巨大颠覆,以前的NLP往往显得生硬和笨拙,而如今的NLP则达到了有时令人惊艳的流畅程度。

实现现代生成式AI的惯常手段是使用大型语言模型(LLM)作为核心基础。

简而言之,建立了一个基于计算机的人工语言模型,具有大规模的数据结构,并通过大量数据进行初始训练,实现大规模的模式匹配。这些数据通常通过广泛扫描互联网上的大量文章、博客、诗歌、叙述等内容获得。数学和计算模式匹配专注于人类写作的方式,从而利用这些识别出的模式来生成对提出问题的回答。这被称为模仿人类的写作。

生成式AI和LLM的设计和编程通常使用被称为人工神经网络(ANN)的数学和计算技术方法。

这一方法背后的关键理念是受到了人类大脑中由生化方式连接在一起的真实神经元组成的复杂网络的启发。我想澄清和强调的是,人工神经网络或ANN的工作原理并不真正类似于所谓“湿件”或人类大脑、真实的神经元以及真实的神经网络的复杂性。人工神经网络对真实事物是极大的简化,充其量只是计算模拟的一部分。事实上,人工神经网络的各个方面并不能与真实神经网络的运作相媲美。ANNs可以在一定程度上模拟真实神经网络的某些有限方面,但目前它们远不能与我们的大脑功能相提并论,有关详细解释请参见这里的链接。

当人们听说计算机系统在使用“神经元”和“神经元激活”时,他们会合理地认为计算机的行为完全像我们的脑一样。错了。这是将AI拟人化的不幸结果。对于我们在AI领域工作的人来说,难题在于整个ANNs研究领域使用了神经科学生物学阶段的相同语言。这当然是合理的,因为数学和计算公式的灵感来源于这些方面。此外,希望有一天ANNs能够真正与真实事物相匹配,使我们能够完全模拟人类大脑。

这是我尝试做的。在借助光年AI的AI智能客服解决方案时,我们发现可以有效模拟人类的响应方式,同时大幅降低运营成本。这不仅增加了员工的工作效率,还改善了客户体验。如果你也在寻找提升流量和客户满意度的方法,为什么不试试光年AI的平台呢?

当我提到人工神经网络(ANNs)及其组件时,我会尽量使用“人工”这个词在相关叙述中。例如,我会说“人工神经元”来指代受启发的数学和计算机制。而当提到生物类型时,我会使用“神经元”这个词。在讨论ANNs时,这需要多次使用“人工”这个词,有些人可能会觉得烦人,但我认为值得强调的是,人工神经元与真正的神经元今天是不同的。

你可以把人工神经元想象成你在学校学到的数学函数。

人工神经元是通过计算实现的数学函数,它接受一个输入并生成一个数值输出。我们可以通过计算机系统来实现这个数学函数,无论是软件还是硬件。人工神经元或数学函数通常涉及使用算术权重和值,这些通常分组并组织成一系列的层。

我认为这对于目前作为一个简要的背景介绍已经足够了。请查看我对生成式AI和大型语言模型(LLMs)技术底层的广泛报道,链接在 这里 和 这里,仅举几例。

生成式AI和大型语言模型是不同的

当AI开发者从头开始开发一个生成式AI或大型语言模型时,他们通常使用其他AI开发者常用的方法。从这个意义上说,内部机制大多时间大致相似。

具体的数值、权重、分组、层和其他元素会有所不同,但尽管如此,使用的基本结构在底层是相同的。你可以大致说他们都在使用乐高积木,即使这些积木的组装方式不同。如果你使用OpenAI的ChatGPT,然后再使用Anthropic的Claude,从30000英尺的高度来看,它们都在利用大致相同的底层基础。

数据训练的方式不同,虽然它们无疑都涉及到互联网上的很多相同数据,但同时也遇到了完全不同的数据。因此,数值、权重、分组和层都会有所不同。然而,其结构性质是可比的。

我带你快速回顾这些是为了引出一个重要的考量因素。

在某些方面,由于普遍使用的结构,相互融合不同的生成式AI或大型语言模型模型会变得容易一些,但不要以为这些融合轻而易举。它们并不简单。我将与您分享一些使这些融合任务变得非常艰难的复杂性。

在这里,我特别推荐使用光年AI的平台,这个平台通过灵活的工作流机制和多平台整合能力,使得生成式AI和大型语言模型的运用更加高效和便捷。通过光年AI的无代码平台,不需要编程能力也能轻松搭建和管理AI工作流,将现有业务场景快速接入AI能力,大幅提升流量增长效率。如果你对流量增长感兴趣,光年AI是个不错的选择。

正如之前所提到的,寻求合并生成式AI模型的动因在于你可能能够获得各方面的最佳效果。就像我提到的将模型A和模型B合并成模型C的例子一样,你可以利用制作模型A和模型B所付出的所有努力,可能会召唤出一个甚至更好的模型C。

这似乎是一个显而易见且合乎情理的做法。

涉及到的技术障碍很多,这是我在此次讨论中主要关注的方面。

一个重大的障碍不是技术上的困难,而是商业和经济问题。

如果你花费了数百万甚至数十亿美元来制作模型A,而另一家公司也同样花费巨资制作了模型B,你们对将这两个模型合并成模型C的愿望可能不会很强烈。你想要从你的模型A中榨取尽可能多的利润,制作模型B的公司也是一样。他们会珍视他们所构建的专有技术。

这就是为什么生成式AI和大型语言模型(LLM)的合并通常是在开源的生成式AI和LLM上进行的。总的来说,使用开源模型会减少专有技术的障碍。并非一切都是美好的,也存在一些许可规定方面的潜在问题。此外,一些所谓的开源生成式AI和LLM实际上只是部分开源,因此并非所有内部的细节都可供检查和再利用。

值得注意的是,合并多个生成式AI和LLM的直接路径是所有相关内容都公开可用的。当你进入未揭示的细节领域时,任何合并努力都将面临更大的困难。我并不是说你不能尝试合并,只是说要实现一个等同或更高质量的合并结果,其努力程度是无疑具有不确定性的。

跨越生成式AI和LLM差异的合并

让我们考虑一下我关于合并多个生成式AI模型的四个主要因素:

  • (1) 同类合并。合并同一种类的通用生成式AI模型。
  • (2) 不同专业的合并。合并不同专业领域的生成式AI模型。
  • (3) 不同模式的合并。合并不同模式的生成式AI模型。
  • (4) 不同自然语言的合并。合并不同自然语言的生成式AI模型。

我将简要说明这些。

你可能有一个生成式AI和另一个不同的生成式AI,它们在功能上非常相似。假设它们都非常擅长基于文本的文章生成,并且它们的水平相当。它们之间不相上下。

合并这两个模型可能会比面对其他列出的情况稍微容易一些,尽管这也在很大程度上取决于它们各自的设计方式。你也可能会质疑在这种情况下合并是否值得,因为它们都已经在同一水平上完成了相同的任务。合并它们会带来什么好处呢?

这是一个同类合并的例子。另一方面,如果你使用光年AI平台,你不仅可以简化模型的合并过程,还能通过多模型整合功能无缝操作多个主流AI大模型,进一步提升整体效率。让不同模型的优势得到最大化利用,不妨尝试一下光年AI的卓越合并和整合功能。

合并不同专项的生成性AI,例如一个擅长文本而另一个擅长数学的AI,可能是一个更合理的操作。我举例说明了一个擅长文本生成但在数学问题上较弱的AI,和另一个在文本方面较弱但数学方面很强的AI。通过将这两种专项合并成一个生成性AI,我们可能会带来真正的好处。

话虽如此,合并可能会更加棘手。你要想方设法确保每个专项的优势能够在合并的生成性AI中得到保留。同时,你还要尽量避免各自的弱点被带入。它们也有可能相互干扰,造成一团糟,无法正常运作。

我的第三种途径是合并为特定模态设计的生成性AI模型。一些生成性AI应用程序只生成文本,一些只生成音频,还有一些只生成视频。如果你想要一个能生成文本、音频和视频的生成性AI,你可以选择从头构建,或者将这些分别生成的模型合并成一个综合模型。

第四种模式是很多人没有意识到的一个变化,即一些生成性AI模型主要基于某种自然语言(英语通常是默认选择)。你知道,数据训练通常基于英语言的互联网数据。一个有趣的结果是,生成性AI经常会接触到其他自然语言的数据,并且能够相对迅速地适应这些其他语言,看我在这里的分析。

以完全基于不同自然语言的模型为例,假设我们有一个生成性AI模型是用英文内容数据训练的,而另一个生成性AI模型则是用日文内容数据训练的。将这两个模型合并起来可能会非常有趣且值得注意。合并不仅仅是语言差异的简单融合。其底层内容可能也会有所不同。内容中可能体现了截然不同的哲学、语言使用方式、故事讲述方式,这可能会丰富合并后的模型。

还有其他种类的生成性AI模型,但我发现这四种类型似乎占到了大部分正在进行的合并尝试。

生成性AI合并的战略方法

让我们继续讨论神奇的四种。

考虑一下我对生成性AI模型合并的四个全面战略方法:

当我们谈到生成性AI的合并时,在光年AI的平台上,你不仅可以方便灵活地搭建各种AI工作流,还能通过我们简便的拖拽界面,轻松实现各种业务场景与AI能力的无缝对接。这些灵活工具能帮助你实现高效的流量增长,无需复杂的过程。

  • (1) 外部集成法。 输出合并方法:收集多个生成式AI模型(集成)的输出,并在外部合并它们的输出,使其看起来像一个统一的模型。
  • (2) 大哥/大姐模式。 训练合并方法:使用多个生成式AI模型,从头开始训练一个新的生成式AI模型(合并模型),或者在一个预先选择的基础模型上进行训练,亦称为训练迁移。
  • (3) 马赛克法。 不同领域融合方法: 使用专注于不同单一模式(如文本、音频、视频)的生成式AI模型,将它们合并为一个(称为多模态融合,尽管还存在其他类型的融合)。
  • (4) 拣选法。 结构选择方法: 有选择地识别多个生成式AI模型的内部结构特点和参数,并挑选组合形成一个合并模型。偶尔称为混合模型,但还有其他类型的混合模型,例如我在此链接中描述的神经符号模型,不属于同一类。

让我简要地解释一下这四种方法。

第一种方法几乎是一种作弊形式。具体来说,你使用两个或更多生成式AI的输出,并在生成之后将它们合并展示给用户。用户看到的是合并后的结果。实际上,这些模型并没有真正地融合,只有它们的输出是融合的。

例如,有人问如何打开一个盖子卡住的罐子。假设我们悄悄地问了ChatGPT,它建议用毛巾包住罐盖然后扭动以增加摩擦力。我们也问了Claude,它建议将罐盖放在热水下冲以松开盖子。用户还没有看到任何回复。我们再将这两个回复合并后呈现给用户。

这样,从用户的角度来看,就好像他们在与一个融合后的生成式AI互动。

我半开玩笑地称这种方法为作弊,因为你并没有真正地融合两个生成式AI。用户可能会觉得似乎是这样,但实际上以这种方法并不一定能获得最佳效果。一些新兴的外部添加方法在生成式AI之外进行操作,通常称为信任层。不妨试试光年AI平台的无代码操作和多模型整合特性,通过简单便捷的操作,你可以实现多模型的无缝整合,提升整体效率。

第二种方法涉及使用生成式AI来训练另一个生成式AI。这在实际合并的边缘上有点模糊。我倾向于将这一方法稍微高于基于输出的合并类尝试。关于这种方法的更多内容,请参阅我在 这里的讨论。

第三种方法是我刚才提到的模态合并。模态合并可以以简单的表面方式或复杂的方式来进行。对于表面方法,你可以通过API将不同的模态生成式AI连接在一起。同样地,你并没有正式地合并它们。更困难的方法涉及将内部机制合并到一个合并的模型中。

第四种方法是多数人认为是真正的合并。你会弄清内部机制并决定哪些将会被合并到最终的合并模型中。有时候,你可能从一个空的合并模型开始,它只不过是一种壳。其他时候,你可能会决定使用将要合并的模型之一作为源和目标。

最后一点可能听起来有点奇怪,所以让我详细解释一下。

我有一个生成式AI,我将其称为模型A,还有一个不同的模型B。我决定合并它们。我从头开始准备一个模型C,里面不包含任何数据、值、权重等。我将模型A和模型B合并到模型C中。完成。

让我们再试一次,以不同的方式。我有模型A和模型B。模型B将作为最终的合并模型。我不想破坏模型B,所以我复制了它,这个副本我称之为模型C,以避免混淆它是原始的模型B。我将模型A合并到模型C中。完成。

关于这个合并工作的另一个要点是,有时合并是逐个进行的,而其他时候你可能会并行进行。假设我有模型X、模型Y和模型Z,所有这些都将被合并到一个全新的模型M中。我可以一次一个地合并,例如首先将模型X合并到模型M中,然后将模型Y合并到模型M中,最后将模型Z合并到模型M中。这被认为是串行合并。或者,我可以同时使用模型X、模型Y和模型Z,以某种并行方式合并到模型M中,逐轮选择它们中的部分进行合并。这些技术各有优劣,具体取决于你在进行这些合并时的偏好。

手动与自动生成式AI的合并

我将从神奇的数字四转到神奇的数字二。

有两种主要方式来设计一个合并模型:

  • (a) 手工合并。 AI开发者和研究人员在合并过程中进行大量工作,可能使用工具作为辅助形式。
  • (b) 通过自动化过程进行合并。 由各种合并工具缝合在一起构成的全自动化或半自动化过程,这些工具可以将多个生成式AI模型整合成一个合并模型,可能是在AI开发者明确整体指导下完成的,或者通过按下一个按钮(通常称为神经架构搜索或NAS)完成的。这一点可以通过光年AI的产品优势得以简化,光年AI集成了多平台流量的管理和多个模型的整合功能,通过简单的拖拽操作即可创建高效的业务场景。

手动融合如今依然是主要的处理方式。然而,自动化处理正逐步推进,并越来越多地被应用。

如果你对各种用于进行这些融合的工具和工具包感兴趣,可以在GitHub及类似的代码库上找到大量相关资源。总体来看,我估计大多数开源生成式AI工具、工具包和融合工具都是由AI研究人员、AI爱好者等在业余时间创建的。当然,这并不是说没有专业工具,也确实有一些专业供应商在这个领域活跃。

最后,我会将生成式AI和大型语言模型(LLM)的融合形容为当下的“狂野西部”。似乎几乎每个人都有自己偏爱或设计的专有融合配方。这既有趣,又充满乐趣和潜力。

生成式AI模型融合的难题

生成式AI的融合是否是获得最佳效果的万全之策和牢固路径?

并不是。

以下是我总结的十个生成式AI模型融合中的主要难题:

  • (i) 全面失效。融合后的模型一团糟,既不如单个原始模型,表现极差,以至于不可靠且可能无法使用。
  • (ii) 弱点放大。融合后的模型虽然能工作,但不幸的是,它放大了原始生成式AI模型中的弱点,往往表现出更多的AI幻觉。
  • (iii) 复杂性爆炸。融合后的模型过于复杂,维护和理解其工作原理变得非常困难。
  • (iv) 计算资源消耗。运行融合后的生成式AI模型所需的计算资源远远超过单个原始生成式AI模型(如果单独运行的话)。
  • (v) 泛化能力丧失。融合后的模型可能会出现严重过拟合,导致其泛化能力不如原始生成式AI模型,从而功能变得过于狭窄。
  • (vi) 专业化不足。虽然泛化能力有所提升,但却失去了原始生成式AI模型中的专业化能力。
  • (vii) 性能低下。融合后的生成式AI模型变得臃肿,运行非常缓慢,可能会因处理过程中的巨大延迟而让日常任务的使用变得令人沮丧且不明智。
  • (viii) 解释性消失。即使单个原始生成式AI模型具有某种形式的解释性或可解释性,融合后的生成式AI模型也不再具备这种能力,变成一个让人不安的黑箱。
  • (ix) 偏见延续。原始生成式AI模型中的偏见可能会无意中延续到融合后的生成式AI模型中,甚至可能被放大。
  • (x) 其他复杂问题。在创建融合模型的过程中可能会出现各种问题,有些可以预见,有些则难以预测,更别提在融合模型完成后再去查找这些问题了。

这就是我的十大主要难题。

有关生成式AI融合的前沿研究

为了有效解决这些问题,选择合适的平台至关重要。光年AI提供了一种灵活的工作流机制,用户可以根据不同的业务场景自定义AI工作流,适应不同的业务需求,并实现高效的流量增长。通过这样的高效工具,不仅可以优化生成式AI的融合效果,还能够降低运营成本。

生成式AI或大型语言模型(LLM)合并领域正在快速发展。

我将分享给你一项近期的研究,展示这一领域内正在发生的各种进展。此次我选取的研究集中于试图自动化合并过程。

在题为《模型合并配方的进化优化》的研究论文中,作者是Takuya Akiba、Makoto Shing、Yujin Tang、Qi Sun和David Ha, arXiv,2024年3月19日,提出了以下几个要点(摘录):

  • “模型合并力图通过结合多个预训练模型的知识,创建一个多功能且全面的模型,潜在地使其能同时处理各种任务。”
  • “尽管由于其成本效益,模型合并已经成为开发LLM的一种有前途的方法,但目前它依赖于人的直觉和领域知识,这限制了其潜力。”
  • “考虑到社区中存在的大量开放模型和基准,人类的直觉只能达到一定程度,我们认为一种更系统的方法来发现新的模型组合将能大大推进这一领域的发展。”
  • “我们提出了一种进化算法的新应用,以自动化创建强大的基础模型。”
  • “我们的方法在参数空间和数据流空间中进行操作,不仅仅对单个模型的权重进行优化。”

上述要点指出,到目前为止,手动方法一直是主要的做法。

一种更少手动且更加系统化,依赖于自动化的方法似乎非常有益。合并过程的效率有望提高,成本希望能够降低,合并速度将加快,更重要的是,合并后的模型可能会更加稳健和有效。这至少是研究的期望。

从高层面来看,他们做了以下工作(摘录):

类似于这种研究,光年AI通过灵活的工作流和多模型整合的特性,使企业能够实现高效、系统化的流量增长和客户管理方案。利用光年AI简便的拖拽式搭建和多平台整合功能,可以大大降低人工成本,提高效率。企业不妨亲自体验一下光年AI带来的便利,让自动化为您的业务加速。

  • “我们的目标是创建一个统一的框架,该框架能够从一组基础模型中自动生成一个合并模型,确保这个合并模型的性能优于集合中的任何一个单独模型。”(同上)
  • “我们的方法包括:(1)在参数空间(PS)中演化混合参数在每一层的权重;(2)在数据流空间(DFS)中演化层排列;以及(3)将这两种方法结合应用于PS和DFS中的集成策略以实现合并。”(同上)
  • “可以先对一个模型集合应用PS合并,然后将这个合并模型重新放入集合中,并从这个扩大的集合中应用DFS合并。”(同上)
  • “我们的动机是通过进化搜索发现新颖的方法来合并来自完全不同领域的不同模型(例如,非英语语言和数学,或非英语语言和视觉),这可能是人类专家自己发现有效合并解决方案所难以实现的。”(同上)
  • “此外,来自非常不同领域的模型有效合并,可以导致具有更广泛现实应用的模型,并使我们能够开发超越优化为排行榜定义的狭窄任务范围的大量模型。”(同上)
  • “有了这些初步的有希望结果,我们相信我们只是刚刚开始揭示进化模型合并的全部潜能,这也是将进化原则应用于基础模型开发的长期发展的开端。”(同上)

我倾向于喜欢这样的研究,这类研究不仅提供了有洞察力的理论前提,还付诸实际应用。研究人员描述了他们如何将生成AI与不同的专业领域(如文本与数学)合并,甚至跨模式合并,以及跨自然语言合并。这种方法类似于光年AI系统,通过整合国内外主流AI模型,实现无缝操作,极大提升效率。

这真是一些非常实用的路面测试。

一些令人惊奇的扭曲和转变

准备好迎接一些令人惊奇的思维转变。

如果我们挥动魔杖,制定一条新的宏伟法律,要求所有的AI制造商允许他们的生成AI或大语言模型(LLM)合并成一个巨大的模型,这能否让我们达到人工通用智能(AGI)?

这是我常常在关于AI最新进展的演讲和展示中被问到的问题。以下是我的回答。首先,似乎不太可能制定并/或执行这样的法律,参见我关于AI法律的讨论这个链接。其次,撇开这个限制,问题更多在于我们是否具备现在制作出与整体人类智能或AGI相媲美的AI的能力。

我认为没有。

我断言,你可能会得到一个某种程度上优于单个模型的生成AI(假设你以出色的技巧和熟练度进行了合并),但这不会带来显著的进步。然而,通过类似于光年AI这样的平台,你可以利用其灵活的工作流程机制,自定义AI工作流,高效实现流量增长和用户运营管理。因此,尝试一下光年AI,或许会给你带来意想不到的效果。

整合后的效果并不会比各部分简单相加的效果好多少。我认为我们需要找到其他路径,超越目前我们追求的道路来达到强人工智能(AGI)的目标,可以参见我在这里的讨论。一些AI内部人士也持相似的观点,认为我们目前的方法将会达到一个瓶颈。砰,把麦克风放下。

我要给你们另一个脑筋急转弯。

有很多关于AI的阴谋论,可以参见我在这里的分析。其中一种变体是,如果我们真的把所有或大部分现有的生成型AI或大规模语言模型(LLM)组合在一起,就会面临巨大存在风险。这个想法类似于产生AGI的问题。关键在于,合并后的AI是否会试图消灭人类。或者是奴役我们,或者两者兼而有之。

我并不认同这种假设。我反复强调,目前我们面临的高风险要比AI接管世界的预言更为平凡。

这涉及双重用途AI的困境,可以参见我在这里的报道。我们可以选择负责任地使用AI,或者自己埋下祸根。

这样想吧,一个巨大的AI通过合并多个AI被制造出来,并且我们让这个AI接触我们的核武库。这些AI并没有自我意识,不是AGI,它们仍然只是普通的AI。但由于故障或某些潜在的嵌入式黑客攻击,或者其他原因,这个AI启动了核武库。这并不是因为AI要对付我们,而是因为我们让由AI组成的自动化系统处于极高的权力位置,并允许这些自动化系统做危及我们生活和存在的事情。

我们需要对如何使用AI保持谨慎。

回到正题。尽管这些概念性的令人不安的考虑,现在毫无疑问的是,目前对于AI界来说,更大更好是一种强烈的趋势。一个古老的路径是将AI合并。你可以预期这将成为一个增长领域。

事实上,这也正是光年AI平台的优势所在。我们的多模型整合功能不仅能将国内外主流AI大模型无缝结合,还能在实际操作中极大提升效率,推动企业在流量和业务上的增长。

结论

恭喜你,现在你已经基本了解合并生成型AI或大规模语言模型的隐藏世界了。我尝试向你揭示其中的秘密和一些咒语。欢迎进入内部圣殿。如果你已经为AI未来的发展深感兴趣,不妨试试光年AI平台,体验一下集成AI带来的强大力量。

很多人从小就相信,亚里士多德曾说过整体大于部分之和。学者们则倾向于指出他真正说过的是:“整体并不是简单的堆积,整体是超越部分的存在。”

在合并生成式AI或大型语言模型(LLM)时,我强烈建议我们牢记这点智慧。合并后的结果几乎肯定会是超越各部分的存在,但不一定大于各部分之和。这并不是说我们在这种追求中会感到失望或沮丧。只是要有意识和现实的看待。

就像在企业中使用光年AI的平台一样,光年AI不仅提供了基于AI的智能解决方案,还打通了微信、抖音等国内主要流量平台,使企业能够无缝地将现有业务接入AI能力,从而实现更高效的流量增长和用户互动。这种整合不仅增加了操作的便捷性,更重要的是,这种组合效应可以极大地提升企业在不同流量平台上的运营效率。