大模型重塑软件研发,从辅助编程到多 Agent 协同还有多远?

【导读】当编程成为最高频的 AI 应用场景,代码大模型的技术与产品发展之路该怎么走?本文作者从大模型软件研发的三大阶段和四大技术难点出发,分析了 AI 如何提升编程效率,并预测了未来软件研发工具的形态,终极目标是实现 AI 程序员,通过多智能体协同工作,大幅提升研发效率。 本文整理自阿里云云效、通义灵码产品技术负责人陈鑫在 2024 全球软件研发技术大会中的演讲,同时收录于《新程序员 008》。《新程序员 008》聚焦于大模型对软件开发的全面支撑,囊括 Daniel Jackson 和 Daniel Povey 等研发专家的真知灼见与“AGI 技术 50 人”栏目的深度访谈内容, 出品丨新程序员编辑部 大模型带来了前所未有机遇,突破传统软件工程和研发效能工具的局限,让 AI 成为软件研发必选项。 据统计,当前大模型技术近 30 %的应用需求来自于软件研发,在软件研发领域的应用也已经从简单的代码辅助生成,演进到能够实现自主处理和开发,市场上丰富的代码辅助工具也验证了这一点。 这些工具借助大语言模型来提高生成代码的准确性和性能,同时强调数据个性化的重要性,以满足不同企业和个人的编码习惯。我一直在思考,怎么才能进一步挖掘大语言模型的强大推理能力、理解能力和分析能力,给研发提供更强的辅助?代码大模型以及相关产品和技术发展之路该怎么走? 接下来,我将从大模型软件研发的三大阶段,四大难点等角度深入剖析。   大模型软件研发演进三步走 自AI技术浪潮再度袭来,大模型在编程领域的普及是个不可忽视的趋势。据统计数据显示,大模型技术近 30 %的应用需求来自于软件研发,编程成为最高频的 AI 应用场景。编程领域代码生成也是大模型擅长的方向,它可显著提升内部工作效率,让开发者协同的方式变得更加优雅、高效、流畅。AI已成为软件开发行业提升效率的关键要素。 据 CSDN、《新程序员》发起的《2024 中国开发者调查报告》显示,专门为开发而打造的 AI 辅助编码工具上,通义灵码使用率位居第一,占比 19 %。生成代码、解释 Bug 并提供修正、生成代码注释或者代码文档是开发者常用 AI 辅助编码工具来实现的事情,分别占比 41 %、29 %和 28 %。而我们正努力通过大模型与软件研发工具链的融合,逐步优化这些任务。 大模型正从两大方向影响着软件研发: 图 1  大模型对软件领域的影响 1、编程事务性工作的普遍替代 开发者的工作中存在大量重复性任务,例如编写胶水代码、框架代码和简单的业务逻辑。这些任务并非开发者核心关注点,如果大模型可以有效替代这些重复性工作,将显著提高个体效率。 此外,编程过程中通常涉及大量角色的协同工作,如产品经理、架构师、开发、测试和运维等。沟通往往耗时费力、协作成本高。如果能引入智能体,打造“超级个体”,将部分编码任务交由 AI 完成,就可以减少复杂的协同工作,提高整体协作效率。 2、知识传递模式的革新 传统的知识传递方式主要依赖于口口相传,如 code review、培训和代码规范的宣导等,这些方式往往滞后且效率低。智能化的研发工具链可以直接赋能一线开发者,提升团队整体水平。未来,每个团队可能会有专门擅长知识沉淀和梳理的成员,通过不断训练和优化大模型,使整个团队受益。 纵观整体趋势,大模型软件研发相关技术将分三步演进: 第一阶段:代码辅助生成 如 GitHub Copilot、通义灵码这类工具作为 IDE 插件,安装后可以显著提升编码效率,但并没有改变现有的编程习惯和研发工作流。AI 只是生成代码、编写测试或解释问题,最终的校验和确认依然由人完成,这个阶段,依然以人类为主导。 第二阶段:任务自主处理 AI 可以通过智能体技术自主校验生成的结果,例如,AI 编写测试用例后,能够自主判断测试是否通过、能否解决程序遇到的问题或发现新的问题。当我们进入智能体阶段,开发者可以减少对 AI 生成结果的人工校验。在此阶段,虽然仍以人类为主导,但AI已展现出独立完成特定任务的能力。此时将出现一条明显的产品分界线。 第三阶段:多智能体协同工作 多个智能体协同工作,并由大模型进行规划,完成复杂任务,如编写测试、写代码、撰写文档和需求分解等,而人类主要负责创意、纠偏和确认。这一阶段,AI 不只是 IDE 插件,而是可以实现功能的自主开发。代表性的产品有 GitHub Workspace 和今年 6 月阿里云刚推出的 AI 程序员,这些都标志着我们正在迎来 AI 自主化编程的时代。 以上前两个阶段,软件效率的提升大约在 10 %至 30 %之间,包括编码效率的提升 和 DevOps 流程的优化。那么,在第三阶段,我们可以通过打破现有的软件研发流程框架,面向 AI 设计新的编码框架和编程模式,效率提升有望突破 30 %,达到 50 %甚至 70 %。 死磕 Copilot 模式四大核心技术难点   接下来,当我们聚焦每个阶段,现有产品、技术发展的现状以及技术细节,就会发现未来还需攻坚的技术难点。以第一阶段最常见的 Copilot 模式为例,它主要分为以下几层:表现层、本地服务端、服务端、模型层、数据处理层、基础设施层。 图 2  Copilot 阶段通义灵码的核心功能架构 当我们聚焦现有代码助手产品技术发展的现状,以及技术细节,就会发现未来需要攻坚的难点主要有四点: 生成的准确度:准确率是决定产品能否应用于生产的关键因素; 推理性能:代码生成速度和整体性能的提升; 数据个性化:适应不同企业和个人的编程习惯; 代码安全与隐私:确保代码生成过程中数据的安全和隐私。 其中准确度包含生成准确度和补全信息准确度两方面。 1、加强生成准确度 根据内部调研报告显示,准确率才是产品的核心,开发者可以接受慢一点,也可以接受有瑕疵,但准确率才是决定能否应用于生产、会不会持续使用的最关键因素,而过硬的基础模型能力是准确度的基础。我们通常认为模型是产品能力的上限,一个靠谱的基础模型是首要的。 通义灵码的靠谱模型主要依赖以下两个: 通义灵码补全模型。它专做代码补全,被称为“ CodeQwen2 ”技术模型,是目前世界范围内非常强大的模型,在基础模型中排名第一,主要通过持续训练,提升其跨文件感知能力、生成代码能力及各个语言的细节优化,纠正其基础模型上的一些缺点,最终训练而成。 通义灵码问答模型。要想模型不仅基础能力强,还能很好地处理专项代码任务,就需要构造大量数据用于训练。单元测试、代码解释和代码优化等复杂任务,都需要构造大量数据进行训练,让模型遵循固定范式,从而持续输出稳定的结果。阿里目前基于 Qwen2 模型进行训练,它支持最大 128K 的上下文,不论是处理具体代码任务、Agent 任务,还是 RAG 优化,都表现出色。 除此之外,还需补全信息准确度。开发者在写代码时,不仅关注当前文件,还有查看引用、工程框架及编码习惯等。因此我们在端侧还设置了复杂的代码分析功能,专门构建整个工程的引用链及相关数据,将其转化为全面的上下文传给大模型进行推理。在代码补全方面,我们进行插件与模型的联合优化,每增加一种上下文都需要构造大量数据训练模型,使其能感知到输入上下文与预测结果的关联关系。通过一系列处理,可大幅降低模型生成的幻觉,使其更好地遵循当前工程开发者的习惯,模仿人类编写相应代码,从而提升生成代码的质量。 图 3  通义灵码补全准确度的方式   2、解决性能问题 如何解决代码生成既快又好的问题,还是得在性能方面下功夫。各种代任务通常不是由单一模型完成的,而是多个模型组合完成。因此,在代码补全方面,我们使用了 CodeQwen2 这个 7B 参数的小模型能保证在 500 到 800 毫秒内完成推理,做到快;在代码任务训练方面,使用千亿参数模型成本高且不划算,用中等参数模型训练,性价比高且更擅长;对于问答任务,通过大参数模型 Qwen-Max 和互联网实时检索技术,可以快速且准确地回答这些问题。 通常,采用多个模型组合来保证时延的优化是比较靠谱的做法。大参数的模型,具有广泛的知识面和强大的编程能力,能够获取实时支持;各种加速和缓存技术,包括在端侧使用流式补全也可以降低延时;使用本地缓存、服务端缓存,再加上推理加速等多种技术,可以兼顾实现速度和准确性。这些措施共同作用,能让通义灵码能提供高效、准确的编程辅助。 图 4  通义灵码提升推理性能的方式   3、攻克数据个性化 数据个性化依然针对两个典型场景:代码补全和研发问答。 图 5  在代码补全、研发问答两方面提升推理性能   在代码补全中,对于相似逻辑的编写,可以用企业已写过的优质逻辑代码来生成,避免重复造轮子。在自研框架的使用中,尤其是在前端开发,每个企业的前端框架往往不尽相同,如果直接使用基于开源数据训练的模型,生成的结果可能会有瑕疵,可以通过 RAG 技术,使员工在代码补全过程中实时获取所需的参考范例,从而生成符合企业规范的代码。 而研发问答这一领域相对成熟,文档问答、API 生成代码规范、代码校验等比较简单就能做到,假设开发者选中一段代码并请求模型根据团队规范进行修正,其背后的原理是通过 RAG 技术,模型能够检索团队当前语言的规范,并据此对代码进行校验和生成,这些都属于数据个性化场景应用。 代码补全场景更加关注时延,力求将检索时间降低到 100 毫秒以内,技术实现有一定难度。而研发问答场景更注重精准度,目标是召回率达到 70 %以上甚至 90 %以上,以提高回答效率。尽管优化目标不同,两者在基础设施上都涉及知识库管理、 RAG 流程、推理引擎和向量服务,这也是通义灵码重点优化的方向。 4、代码安全与隐私 为解决代码的安全隐私问题,我们设计了全链路安全防护策略,让企业可以以较低的成本享受到 AI 的能力,每月仅需一两杯咖啡钱。 图 6  通义灵码的全链路安全防护 加密端侧代码,确保即使请求被拦截也无法复原代码; 制定本地向量存储和推理全部在本地完成的策略,除非是主动上传的企业级数据,否则代码不会上传到云端,保证了云端没有代码残留,即使黑客攻破了通义灵码集群,也无法获取用户数据,确保了安全性; 设置敏感信息过滤器,确保所有企业上传的代码都合规,能够放心使用公共云的推理服务,实现极高的性价比。 从简单走向复杂的代码生成,并非一蹴而就 通义灵码在以 Copilot 为代表的代码助手方面已经比较成熟,从满意度调查和替代率两个重要方向来评估它在企业中的满意度。基于 1124 份有效样本,超过 72.5 %的受访者在编码工作效率提高方面给予了四分以上的评分(总分为五分)。针对后端语言,通义灵码生成代码的替代率在 30 %以上,而前端由于存在大量的复制粘贴操作,生成率略低,约为 20 %左右。 那么,在大模型软件研发相关技术演进的第二阶段,我们如何从简单的代码任务逐步走向复杂的代码生成? 2024 年 3 月,Devin 发布,只需一句指令,它可以端到端地进行软件开发和维护。虽然只是一个预览版,但它让我们看到 Multi Agent 方向的可行性。这是从 0 到 1 的突破,Devin 显著提升了 AI 在实际编码任务中的应用能力。同年 4 月,GitHub  发布了 Workspace,它是编码自动化的初步尝试。 以上再次证明了 AI 在代码生成领域的潜力巨大,尽管还有很长的路要走,但这表明我们正在朝着实现更高效、更智能的编程环境迈进。在技术路线上,我认为需要分为四个阶段逐步发展,而非一次性跃迁。 图 7  从单一 Agent,走向多 Agent 架构的四大阶段 第一阶段:单工程问答 Agent 要解决基于单工程的问答需求。典型的功能如代码查询、逻辑查询、工程解释,基于工程上下文的增删改查接口、编写算法,在 MyBatis 文件中增加 SQL 语句等,都属于简单任务,已经充分利用了单库的 RAG 技术以及简单的Agent来实现。这为更复杂的多 Agent 协同系统打下了基础。 第二阶段:编码 Agent 进入能够自主完成编码的阶段。Agent 将具备一定自主任务规划能力,以及使用工具能力,可自主完成单库范围内的编码任务。例如,在集成开发环境(IDE)中遇到编译错误或缺陷报告时,用户可以一键让 AI 生成相应的补丁。 第三阶段:测试 Agent 到达具备自主测试能力的 Agent 阶段,它不仅能够编写单元测试,还能理解任务需求、阅读代码并生成测试。不管是单元测试还是黑盒测试方法。而另一些 Agent 可以用于架构分解、文档编写、辅助阅读等功能。 第四阶段:Multi-Agent 接下来,多 Agent 基于 AI 调度共同完成任务,就可以实现更复杂的任务管理和协作实现,从需求->代码->测试的全流程自主化。我们的终极目标是 AI 程序员的水平,类似于 Devin 项目。这一阶段将涵盖更复杂的编程任务,需要更高级的 AI 调度和协同能力。     Code Agent 落地门槛:问题解决率至少 50 %以上   从整个技术路线图来看,前三步通义灵码已覆盖。它展示了整体工作流,以本地库内检索增强服务为核心,提高了代码和文档的准确检索及重排效率,并结合企业知识库,增强了系统的综合问题解决能力。 这一过程需要不断优化,其过程涉及几个关键点:首先,深入理解需求,这是整个优化流程的基石;其次,提升需求在库内检索的成功率,它直接影响到后续步骤的效率与效果;再者,模型本身的性能提升,将检索到的信息整合并解决问题的能力至关重要,这是 Code Agent 的前身。 接下来要重点攻克的是 Code Agent 技术。SWE-bench-Lite 测试集是业界公认的Code Agent 测试标准,在测试集上,通义灵码 Agent 实现了 33 %的问题解决率,领先业界。然而,要推动这一技术走向实际应用,仍面临诸多挑战。 图 8  灵码 Agent 在 SWE-bench-Lite SOTA 测试集的表现 难点一:当前 Code Agent 的效果高度依赖 GPT-4 等先进基础模型,基础模型的能力可能是整个领域往前走的一大阻碍,这限制了技术的普及与自主可控性。 难点二:上述方案在调优上比较困难,容易牵一发动全身,难以快速迭代; 难点三:长上下文依赖和多轮次复杂 Action 处理仍是技术瓶颈; 难点四:模型调优问题,这是当前的一个重要挑战,即便是使用 GPT-4,我们在SWE-bench-Lite SOTA 测试集上的表现也仅为 30 %以上的问题解决率,这与生产级可落地的标准仍存在较大差距。因为测试集中不仅包含了相对简单的单文件修改任务,还涉及到了更为复杂的多文件和多任务修复场景,这对模型的上下文理解、逻辑推断及代码生成能力提出了更高的要求。要达到生产级可落地的标准,需要至少将问题解决率提升至 50 %以上,继续加大技术研发投入是必要的。 未来的软件研发工具形态   对于通义灵码仍有差距的第四阶段——Multi-Agent 阶段,我们也已经有了清晰的概念架构,其工作流程大概是:用户输入指令后,一个复杂的多 Agent 协同系统随即启动。该系统核心解决三大问题: 首先,通过结构化的任务管理,模拟人类团队分解大型任务的行为,实现高效协作; 其次,简化工作流程,将复杂任务细化为小任务,并借助 Agent 特性逐一执行; 最后,高效执行任务,让每个智能体专注自身任务并协同工作,共同完成复杂任务。 未来的软件研发工具链也将呈现三层架构: 图 9  未来的软件研发工具链架构 底层为 AI 基建层,为中层的通义灵码与AI程序员等提供基础支持,涵盖运行环境、模型推理服务、模型微调 SFT、检索增强 RAG、企业管理功能及核心模型。在 AI 基建层,工具共享、不同模型各司其职,这进一步验证了我们的技术演进路线。 通义灵码与中层的 AI 程序员之间存在递进的技术演进关系,虽然共享同一 AI 基建,但在产品交互及与开发者的连接方式上,两者差异显著。AI 程序员拥有自主化工作区,采用问答式交互方式,这种非传统 IDE 形态却能无缝连接最上层的 IDE 端、开发者门户及 IM 工具,成为开发者主要入口的延伸。 右侧,与现有 DevOps 工具链紧密链接,在不颠覆现有 DevOps 或 CICD 流程的基础上,极大地简化和优化了这些流程。 AI 程序员边界明确,专注于从任务输入到文档编写、测试用例测试完成的全过程,未涉及 CICD 或复杂运维操作,作为现有工具链的有效补充,它将大幅简化工具链交互,优化流程协作,对组织结构和开发者技能产生深远影响,甚至可能引领未来编程软件向 AI+Serverless 的架构转型。 当前的 Serverless 主要由各类 function 构成,并通过 workflow 紧密相连。AI 擅长独立完成单一的 function,但面对庞大、复杂的代码工程,尤其是质量欠佳的代码时,修复能力尚显不足。未来,Serverless 与 AI 融合的编程架构有望成为主流趋势,这并非无稽之谈。我们坚信,随着技术和基础模型的不断演进,预计在未来 3-6 个月内,将有相应产品推出,并有望在部分生产级场景中实现落地应用。 阿里云内部代码助手落地实况   阿里云已经全员推行 AI 辅助编码,同时充分考虑各部门的差异。面对不同部门的框架差异,主要采取两种策略。一种是通过 RAG 来实现,即根据每个部门自身需求建立知识库,用于补全和问答优化。每个部门都能梳理并优化其常用代码样例、框架示例及 API 示例,尽量保持其独特性。这种方式让一个工具能够灵活覆盖所有部门的需求。 另一种是进行模型微调,已在一些企业中尝试过。利用小规模数据集对模型进行微调,结果显示,这种基于个性化业务代码的微调能够显著提升模型的准确率,虽然有效,但其成本较高且过程复杂。 从采纳率和 AI 代码生成占比来看。目前,阿里云内部的 AI 代码生成占比已达到 31%,后端语言如 Java 的占比更高,达到 30 %以上。这些数字表明,基于开源代码训练的模型已经能够在实际应用中发挥重要作用,未来通过 RAG 的进一步优化,我们有信心进一步提升这些指标。 关于前文提到的通过前端工具将上下文学习与后端大模型结合,以在代码补全方面取得更好效果,我们主要根据不同语言的特性来解析代码的依赖关系,以构建整个工程的依赖树。当我们需要为某个文件进行代码补全时,会找到该文件所处的上下文,类似于人类编写代码时的行为。为确保代码补全的准确性,需要将当前文件的所有依赖项都纳入上下文考虑范围,否则模型可能会产生“幻觉”,即生成与上下文不符的代码。 此外,我们还会寻找与当前编写位置相似的代码片段,帮助模型理解工程内部的编写风格,为代码补全提供有价值的参考。以 Spring Boot 等框架为例,许多内部扩展或“胶水层”代码都具有一定的相似性。通过找到这些相似代码,模型能够生成更贴近实际需求的代码,从而提高采纳率。 同时我们会收集跨页面的相似组件信息,以供模型参考。判断哪些上下文对当前位置的代码生成具有更高的采纳概率,再通过算法调优来确保模型能够优先利用最重要的上下文信息,包括优先级排序、筛选和压缩等一系列操作。 一般情况下业务研发部门无需直接参与前端上下文知识的处理工作,这取决于具体的业务需求和项目复杂度。 为了进一步提升效果,我们还需要收集和处理业务单位的反馈。在实际应用中,开发者们可能会遇到一些“ bad case ”,即插件生成的代码不符合他们的期望或需求。为了优化插件的性能和准确性,我们需要基于具体场景进行调优。我们会不断优化通义灵码并持续发布先进的产品,向着大模型赋能软件开发的终极形态坚定地走下去。

向世界级软件开发大师“Bob 大叔”Robert C. Martin 提出你的疑虑!

函数式编程作为一种编程范式,其根源可以追溯到 20 世纪 30 年代,当时数学家们正在探索计算理论的基础。1936 年,阿隆佐·丘奇提出了 λ 演算(Lambda Calculus),这是一种形式系统,用于表达函数抽象、函数应用以及变量绑定。丘奇的 λ 演算为函数式编程奠定了理论基础。 同年,艾伦·图灵提出了图灵机的概念,这是一种理论上的计算模型,能够模拟任何计算机算法的逻辑工作流程。图灵机与 λ 演算在理论上被证明是等价的,即它们具有相同的计算能力。这一发现不仅推动了计算理论的发展,也为后续的编程语言设计提供了理论支持。 如今,函数式编程因其易于理解和维护的特点,以及处理并发问题的能力,开始受到越来越多的关注。许多现代编程语言要么本身就是函数式语言,要么至少提供了一些函数式编程的支持。 针对希望在日常工作中利用函数式编程解决问题的程序员,知名软件匠人 Robert C. Martin(简称 Bob 大叔)撰写了一本新书——《函数式设计:原则、模式与实践》。这本书的标题也致敬了他的经典著作《敏捷软件开发:原则、模式与实践》,旨在帮助程序员理解如何使用函数式编程语言来完成实际任务,而不是深入探讨 Monads、Monoids、Functors 等理论概念。这些理论虽然非常重要,但在大多数情况下已经融入了常见的语言、代码库和框架之中。 CSDN《新程序员》即将采访 Robert C. Martin,向 Bob 大叔讨教最卓越成效的编程技巧,同时询问他对于当今 AI 编程革命的最新观点。在此,CSDN 面向所有开发者征集“你最想问 Robert C. Martin(Bob 大叔)的 1 个问题”,欢迎各位程序员们留言提出自己最为关心的问题! 所有的函数式编程实际上都是 λ 演算。  ——《函数式设计》,Robert C. Martin “Bob 大叔”是谁? Robert C. Martin 被誉为世界著名编程大师,虽然他现在很欢迎大家叫他“Bob 大叔”(Uncle Bob),但这个绰号的由来却让人哭笑不得。 1988 年,Martin 在伊利诺伊州的一家初创公司上班,当时办公室里有个叫“Billy”的人,是个烦人精,很喜欢给别人取绰号,甚至给办公室里的每个人都取了个绰号。 Billy 给 Martin 取的绰号就叫做“Bob 大叔”,非常无厘头,没人知道他取这个绰号的缘由。随着一天天过去,这个绰号越叫越熟,这个人开始只用“Bob 大叔”称呼 Martin。 后来,Martin 离开了这家公司。所幸的是,他发现当时没有其他人叫他“Bob 大叔”,便自以为可以永远摆脱这个称号了。 结果,某天 Martin 发现,在新公司的会议上,有人看到他并大叫了一句“Bob 大叔!”,把他吓了一跳。一问才发现,原来他自己曾经把 Usenet(这是互联网早期的一款讨论组应用,四十多年前还没有浏览器,程序员们就在这上面交流想法)上的签名设置成了“Bob 大叔”,后面放了一整年没管,这也导致他一年以来的电子邮件签名全都沿用了“Bob 大叔”这个绰号。 随后,Martin 把“Bob 大叔”从电子邮件的签名中删掉,但新公司的人却都开始管他叫“Bob 大叔”。从那一刻开始,他发现自己永远摆脱不了这个绰号了 —— 而且他也发现这个绰号意外的还不错,可以占人便宜。毕竟,谁不想当世界上所有程序员的叔叔呢?   敏捷开发的“活化石” Bob 大叔是敏捷开发和设计模式的先驱,他从 1970 年开始从事软件专业工作,从事相关工作超过 50 年。知名的“SOLID 五大原则”,即面向对象编程领域的五个设计原则,便出自他的手笔。他在 21 世纪早期提出了 SOLID 五个首字母缩写,便于记忆: Single Responsibility Principle(单一功能原则) Open/Closed Principle(开闭原则) Liskov Substitution Principle(里氏替换原则) Interface Segregation Principle(接口隔离原则) Dependency Inversion Principle(依赖反转原则) 除此之外,他也是“敏捷宣言”的联合签署人、“敏捷联盟”的首任主席、C++ Report 杂志前主编。他发表了大量有影响力的文章,并经常受邀在许多国际软件大会上发表演讲。 后来,Bob 大叔还用自己的绰号创立了 Uncle Bob Consulting 有限责任公司,并与儿子 Micah Martin 共同创立了 Clean Coders 有限责任公司。他还是 Clean Code、Clean Architecture 和 The Clean Coder 等多本畅销书籍的作者。   71 岁了,还在网上坚持和人对线? Bob 大叔从来都不是纯理论派,他和我们熟悉的 Linux 之父林纳斯·托瓦兹一样,混迹各种互联网早期的开发者社区,还都特别擅长在网上和人“唇枪舌战”。 五年前,Bob 大叔现身开发者博客平台 Hashnode,并挑选了一个良辰吉日,发了个帖子,题为《我就是 Robert Martin(也就是你们熟知的 Bob 大叔),你可以问我任何问题》,并欢迎开发者在下面直接开始对他提问,可谓是非常豪迈。 本次 CSDN 采访将会募集广大开发者社区的提问,如果你不知道该问 Bob 大叔哪些问题,不妨来看看五年前的开发者们是怎么做的: 开发者:当前软件工程的哪些趋势被高估了?自 1970 年以来,软件工程的哪些实践发生了根本性的变化? Bob 大叔:目前是微服务被高估了。 自 1970 年以来有什么改变?那毫无疑问是敏捷。敏捷意味着承认在软件开发中纪律比仪式更重要。 开发者:你对 Node.js 有什么看法? Bob 大叔:我不怎么写 JavaScript 代码。我从未使用过 node。我希望可以跳过整个 JavaScript 代码,改用 Clojurescript,嘿嘿。 开发者:怎么看待 Reddit 上那些针对你的网络黑子? Bob 大叔:我不看 Reddit,我知道有些人因为这样或那样的原因不喜欢我。但这没关系,因为我相信思想市场理论,如果他们的想法最终被证明更好,那他们就是对的。 还有一些人不喜欢我,是因为我是保守派和共和党人,因为我投票给川普。但这没关系,因为我相信思想市场理论,如果我的政治观点是错误的,那么它就会失败。 与此同时,我已经当了 48 年的程序员,很少有人能连续 48 年编程。这种经验水平让我处于某种权威地位。我还是个相当不错的作家,这很有帮助。不管怎样,互联网上足够的空间容纳我们所有人。 开发者:程序员要学多少语言? Bob 大叔:每个程序员都应该了解多种语言。Dave Thomas 和 Andy Hunt 曾经说过(在《程序员修炼之道》中):“每年学习一种新语言。” 这是个很好的建议。 每个程序员都应该了解一种基于 C 的语言,如 C、Go、Java、C# 或 C++。 每个程序员都应该了解一种函数式语言,如 Clojure 或 F#。 每个程序员都应该了解一种基于堆栈的语言,如 Forth。 每个程序员都应该了解一种逻辑语言,如 prolog。 每个程序员都应该了解 LISP。 这仅仅是个开始。 开发者:我知道你离开了 C++ 标准委员会。有鉴于此,您如何看待 Rust 的生命周期和所有权?以及总体而言,Rust 及其在编程语言领域的未来? Bob 大叔:我从未被邀请加入 C++ 标准委员会。如果有人邀请我,我一定会拒绝。我讨厌官僚主义。我不想为小小的语言特性斤斤计较。我只想写代码。 我对 Rust 一无所知。也许有一天我会去研究一下,但我还有很多其他事情要做。 开发者:您认为计算机科学教育对于软件工程师来说怎么样?它是完全无用的,还是您认为它有一定的价值? Bob 大叔:这取决于学校。在一些学校,完全有可能不写一行代码就能获得计算机科学硕士学位。这简直是荒谬的。另一方面,有些学校在让你的手指敲击键盘方面做得相当不错。但总体而言,我认为计算机科学学位不是必需的,甚至不值得花钱。软件是一门可以通过良好的计划在工作中学习的行业。 开发者:在大部分 Clean Coders 的视频中,你邀请我们走进你的生活,仿佛是在自家客厅里,你总不忘先为我们上一堂生动的科学课,然后才转入正题。这是否意味着,作为一名软件工程师,你暗示我们可以拥有这样一种生活方式,既充实又自在? Bob 大叔:没有什么刻意的安排,也没有任何暗示。你所看到的,就是我真实的生活状态。 我没有接受过正规教育,没有大学文凭。1970 年,当我 18 岁的时候,就开始了我的编程之旅。我接触过 COBOL、PL1、FORTRAN 和汇编语言,一路走来,我从未后悔。 如今,48 年后,这些年的积累让我拥有了安逸的生活条件。但在职业生涯的初期,我过着捉襟见肘的日子。 随着经验的增长,我的收入也相应提高,但与此同时,家庭的责任和开支也随之增加。确保财务状况稳定,成了我长达三十多年的挑战。 我尝试创办了自己的企业,一度雇用了许多人。但请不要相信那些说创业是快速致富捷径的人。事实往往并非如此,大多数时候,这条路充满艰辛。最终,我的企业没能幸免于失败的命运,留下的是一笔沉重的债务。 现在,到了人生的暮年,我本可以稍稍放松,享受生活。但我并不打算这样做。我热爱我的工作,而且我做得非常出色,从中获得了巨大的满足感。 我只希望你们每个人都能像我一样,找到属于自己的幸福,无论是在家庭生活,还是在职业生涯中,都能体验到作为丈夫、父亲和程序员的快乐。   向 Bob 大叔提出你的疑问! 2019 年的时候,大模型时代还未开始,ChatGPT 与 GitHub Copilot 没成为程序员的标配,我们也就无法得知 Martin 对此的最新看法。 如今,编程范式出现了巨大变化,对话大师的机会就在眼前,请将你所关心的问题在评论中留下来,CSDN 将精选向 Robert C.Martin 提问! 提问方式:在评论中发出即可,最好详实、具体、有针对性。 大模型刷新一切,让我们有着诸多的迷茫,AI 这股热潮究竟会推着我们走向何方?面对时不时一夜变天,焦虑感油然而生,开发者怎么能够更快、更系统地拥抱大模型?《新程序员 007》以「大模型时代,开发者的成长指南」为核心,希望拨开层层迷雾,让开发者定下心地看到及拥抱未来。 读过本书的开发者这样感慨道:“让我惊喜的是,中国还有这种高质量、贴近开发者的杂志,我感到非常激动。最吸引我的是里面有很多人对 AI 的看法和经验和一些采访的内容,这些内容既真实又有价值。”

Gemma 2-2B 端侧模型正式发布;扎克伯格:Llama 4 需要十倍以上的算力

一分钟速览新闻点! Gemma 2-2B 开源端侧模型正式发布 马斯克 xAI 欲收购角色扮演聊天机器人开发商 Character.AI 上海人工智能实验室开源 AI 搜索框架 MindSearch Salesforce AI 开源大型多模态交织数据集 MINT-1T 苹果发布 Apple Intelligence 开发者预览版 Meta AI 推出视频/图像分割模型 Segment Anything Model (SAM) 2 Meta AI 推出个性化 Agent 平台 AI Studio 扎克伯格:训练 Llama 4 所需算力几乎是 Llama 3.1 的 10 倍 Meta 因未经用户许可使用面部识别技术向德州支付 14 亿美元 每月花费近 2000 万美元,消息称 TikTok 成为微软 AI 服务最大客户之一 Reddit CEO:微软等公司必须付费才能抓取数据,“封锁这些公司真是一件痛苦的事情” 国内外 AI 要闻 Gemma 2-2B 开源端侧模型正式发布 近日,Google DeepMind 正式发布 Gemma 2-2B 模型并开源。该模型具有更小、更安全的特点,性能出色,能与规模大 10 倍的模型相匹敌,超越了 GPT-3.5-Turbo 和 Mistral-8x7b。它基于 NVIDIA TensorRT-LLM 库优化,在 lmsys 榜单中获得第 47 名,超过了 GPT-3.5-Turbo 的第 51 名和 Mistral-8x7b 的第 56 名。 项目链接:https://huggingface.co/collections/google/gemma-2-2b-release-66a20f3796a2ff2a7c76f98f 马斯克 xAI 欲收购角色扮演聊天机器人开发商 Character.AI 据悉,埃隆·马斯克的 xAI 已与人工智能初创公司 Character.AI 就收购展开讨论。Character.AI 去年曾进行估值超 50 亿美元的融资谈判,马斯克为 xAI 筹集约 60 亿美元,其估值达 240 亿美元。Character.AI 由谷歌校友创立于 2021 年,服务特色是允许用户创建定制聊天机器人。目前双方谈判进展不明。 上海人工智能实验室开源 AI 搜索框架 MindSearch 近日,上海人工智能实验室开源了性能匹敌 Perplexity Pro 付费级别的 AI 搜索框架 MindSearch,并提供了 Demo 和代码。MindSearch 能够浏览数百个网页来深入理解和回答问题,动态构建思考图谱,还会将用户查询分解为原子子问题并逐步扩展图。它支持解决生活中的各类问题,在深度、广度、真实性上超越 ChatGPT-Web 和 Perplexity.ai (Pro)。MindSearch 拥有优化的 UI 体验,提供多种接口,能基于多代理反思机制提高可信度和可用性。 代码链接:https://github.com/InternLM/MindSearch 论文链接:https://arxiv.org/abs/2407.20183 Salesforce AI 开源大型多模态交织数据集 MINT-1T Salesforce AI 开源了名为 MINT-1T 的多模态交织数据集。它规模庞大,包含一万亿个文本标记和 34 亿张图像,比现有开源数据集大 10 倍。其数据来源广泛,涵盖多种文档。在构建中遵循规模和多样性原则,收集处理精细,过滤全面。使用该数据集预训练的模型在评估中表现出色,对其的深入分析也显示出显著优势,有望为相关研究和应用带来重要价值。 代码链接:https://huggingface.co/collections/mlfoundations/mint-1t-6690216ca4d0df7e518dde1c 论文链接:https://arxiv.org/abs/2406.11271 苹果发布 Apple Intelligence 开发者预览版 近日,苹果发布了 Apple Intelligence 的开发者预览版,iPhone 15 Pro、iPhone 15 Pro Max 及部分 Mac 和 iPad 设备可使用,但部分功能暂不可用,欧洲和中国用户设备暂不支持。苹果发布技术报告,称基础模型在 Google 定制 Tensor 处理单元预训练,租用云服务提供商服务器计算。该系统在全球开发者大会发布,深度集成多种系统,有多任务处理等特性,核心模型包括两种主要类型。 Meta AI 推出视频/图像分割模型 Segment Anything Model (SAM) 2 Meta AI 推出新一代的 Segment Anything Model (SAM) 2,在视频和图像对象分割上功能强大。它能实时精确分割,在多个领域有广泛应用,性能卓越,在多数据集上优于以往。其架构先进,引入内存机制保持分割的一致性和准确性。开源代码和权重,提供丰富数据集。在公平性和人机交互效率方面表现出色,大幅减少视频分割的交互时间。 模型下载:https://github.com/facebookresearch/segment-anything-2 论文链接:https://ai.meta.com/research/publications/sam-2-segment-anything-in-images-and-videos/ Meta AI 推出个性化 Agent 平台 AI Studio 近日,Meta AI 推出了基于 Llama 3.1 的 AI Studio 平台。该平台让任何人无需技术技能就能轻松创建定制的 AI 角色,包括创作者 AI 和基于兴趣的角色。用户可创建、自定义,从模板开始或从零设计,设置名字、性格等,还能选择训练内容。创建的角色能分享,也能发现他人的角色并互动。此平台可用于教学、社交管理等领域,有自动回复和个性化互动功能,帮助创作者扩大影响力,相关链接也已给出。 扎克伯格:训练 Llama 4 所需算力几乎是 Llama 3.1 的 10 倍 Meta 第二季度盈利延续良好态势,上季度营收超 390 亿美元,利润约 135 亿美元,用户使用活跃。CFO 表示 AI 投资回报需长期等待,扎克伯格愿提前投资基础设施。Meta AI 助手有望年底成为全球使用最多的助手,未来真正收入将来自商业应用。 值得关注的是,Meta AI 近期已在准备训练 Llama 4,扎克伯格希望其明年推出时成为业内“最先进”模型,但他同时表示,训练 Llama 4 所需计算量几乎是 Llama 3.1 的 10 倍。此外,Quest 3 销售超预期,Threads 即将拥有 2 亿月活用户,Facebook 在年轻人群体中重新增长。 Meta 因未经用户许可使用面部识别技术向德州支付 14 亿美元  Meta(前 Facebook)同意支付 14 亿美元与德克萨斯州和解,此为该州与单一公司达成的最大和解协议,用以解决未授权使用用户生物特征数据的隐私诉讼。此前,该公司已根据类似指控在伊利诺伊州达成 6.5 亿美元和解。德克萨斯州共和党总检察长肯・帕克斯顿表示,这一和解体现了对科技公司违法行为的严肃处理。Meta 表示问题已得到解决,并希望在未来加深在德克萨斯州的投资,包括开发数据中心。诉讼指控 Meta 违反了禁止未经同意获取或出售生物特征信息的州法律。此外,Meta 在 2021 年关闭了人脸识别系统并删除了超过 10 亿人的脸部指纹数据,当时有超过三分之一的使用者选择了面部识别功能。  每月花费近 2000 万美元,消息称 TikTok 成为微软 AI 服务最大客户之一  有消息称,截至今年 3 月份,TikTok 每月向微软支付近 2000 万美元,以通过微软购买 OpenAI 的模型。这笔金额几乎占据了微软 AI 收入的四分之一,也使 TikTok 成为微软 AI 服务的最大客户之一。在全球云计算市场的竞争中,微软通过整合 OpenAI 的人工智能技术,成功地将其云服务转化为一项利润丰厚的业务。微软的云 AI 业务有望实现年收入 10 亿美元(当前约 72.48 亿元人民币),但该报道指出,如果 TikTok 开发出自己的大型语言模型,它可能不再需要如此大量地依赖这些(来自微软的)能力。(The Information) Reddit CEO:微软等公司必须付费才能抓取数据,“封锁这些公司真是一件痛苦的事情”  Reddit CEO 史蒂夫・霍夫曼近日表示,如果微软等公司希望继续抓取该网站的数据,就必须付费。此前,Reddit 已经与谷歌和 OpenAI 达成协议。霍夫曼指出,如果没有这些协议,Reddit 无法控制或了解其数据的使用方式,这迫使他们不得不屏蔽那些不愿意接受数据使用条件的公司。他特别点名了微软、Anthropic 和 Perplexity 三家公司,称他们拒绝谈判,并称封锁这些公司“非常麻烦”。

大模型产业吸金能力凸显,半年融资超2300亿元;GPT-4o Long Output模型发布,支持超长文本输出

  🌟 微软AI服务迎来大客户:TikTok每月花费近2000万美元 微软的AI服务迎来了一个重量级客户——TikTok。据报道,TikTok每月向微软支付近2000万美元,以获取OpenAI的模型。这笔交易几乎占微软AI收入的四分之一,使TikTok成为微软AI服务的最大客户之一。然而,随着字节跳动正在尝试构建自己的AI模型,TikTok可能会减少对微软AI服务的依赖。这一动态反映了AI领域快速发展中的常见现象,即客户在获得必要的技术后,可能会寻求自给自足。 🔎 360安全大模型免费,助力企业提升安全防护 360集团创始人周鸿祎在互联网安全大会上宣布,360安全大模型将免费提供给所有购买360标准产品的用户。此举旨在打破大模型的高价壁垒,让每个企业都 能“用得起、用得好”。360全线安全产品已集成安全大模型的能力,产品加量不加价,体现了360为国家、用户、客户解决问题的决心。 🤖 OpenAI向部分用户开放GPT-4o语音模式 今秋将扩大至所有付费用户 OpenAI宣布,从即日起开始向部分ChatGPT Plus用户推出GPT-4o的语音模式。这一高级语音模式能提供更自然的实时对话体验,允许用户随时打断,并能感知和响应用户的情绪。尽管最初功能有限,如无法使用计算机视觉功能,但GPT-4o语音模式的推出标志着AI技术在语音交互领域的重大进步。OpenAI计划在今年秋季将这一功能扩展至所有付费用户。  🔎 阿里巴巴推出AI对话式采购引擎,助力中小企业采购革新 阿里巴巴国际数字商业集团宣布,将于9月推出人工智能对话式采购引擎,旨在改变中小企业的全球采购流程。这项新服务将整合所有电商平台,通过理解自然语言并转化为专业采购请求,同时预测采购需求并提供建议。此举预计将大幅提升B2B电商的效率和便捷性,为中小企业带来福音。 📊 为测试聊天机器人 Grok,消息称马斯克的 xAI 考虑收购 Character.AI 据The Information报道,马斯克的人工智能初创公司xAI考虑收购聊天机器人制造商Character.AI,以便测试其Grok聊天机器人。尽管讨论可能不会促成交易,但这一消息反映出AI领域资源争夺的激烈程度。xAI与Character.AI的合作谈判,以及Meta与Character.AI的潜在合作,都显示了大型科技公司对AI初创公司的兴趣,以及它们在AI资源上的竞争态势。   📰 巴西政府斥资近41亿美元投资AI,追求技术自主与竞争力提升 巴西政府宣布了一项约40.7亿美元的人工智能投资计划,旨在开发可持续、面向社会的技术,并在AI领域实现技术自主,提高国家竞争力。该计划预计将为公共卫生、农业、环境、商业和教育等多个部门提供资源,支持AI系统的开发,促进消费者服务和其他操作程序的改进。巴西希望通过这一大规模投资,减少对外国AI工具的依赖,推动国内AI技术的发展。   📍大模型产业吸金能力凸显,半年融资超2300亿元 2024年上半年,全球大模型产业相关企业的融资事件达到120起,融资总额超过2300亿元。美国和中国在融资数量和金额上遥遥领先,分别有59起和35起亿元级融资,融资总额分别为1834.38亿元和304.58亿元。大模型应用领域的企业数量最多,而AI Infra领域的企业则在单笔融资金额上表现突出。中国大模型产业虽在融资总额上不及美国,但小额融资活跃,显示出强劲的市场潜力。     🚀 GPT-4o Long Output模型发布,支持超长文本输出 OpenAI推出了GPT-4o Long Output模型,支持高达64k tokens的长文本输出,相当于约200页小说,是原模型输出能力的16倍。然而,输入上限降至64k tokens,用户需在输入和输出长度间做出选择。该模型定价为每百万输入tokens 6美元,输出tokens 18美元,为测试模型,测试时间会维持数周,名为GPT-4o-64k-Output-Alpha。   🌟 Midjourney v6.1发布,图像生成质量大幅提升 Midjourney发布了v6.1版本,带来了八大方面的升级,包括更强的一致性、更高的图像质量、更准确的细节理解等。新版本在人像生成方面表现出色,几乎无可挑剔,生成的物体也更加合理。然而,在多人场景的生成上仍存在挑战,如群像生成时人物的四肢数量和方向会出现错误。Midjourney表示,v6.2版本预计下月发布,将进一步提升文本处理能力。   📂 Kimi联合AiPPT推出-键生成PPT服务 Kimi PPT助手是月之暗面联合AiPPT推出的一键生成PPT服务。用户只需通过语音或文字指令,Kimi就能理解需求,自动生成幻灯片,提供布局和色彩搭配建议,帮助用户快速创建和设计PPT。Kimi还能根据用户反馈进行多轮对话,优化演示内容,确保PPT既专业又个性化。使用KimiPPT助手,用户可以节省大量时间,同时提高演示的专业度和吸引力。 🪙 根据词语使用模式进行判断,日立开发可识别文章是否由 AI 创作的技术 日立制作所开发出了一项新技术,能够根据文章中的词语使用模式判断文章是否由生成式AI创作。这项技术有助于防止AI制造的错误信息传播,并帮助企业在撰写重要文件时规避侵犯著作权等风险。通过分析文章中基于规则的词语使用情况,日立的新技术能够提高判断的准确性,为AI内容的监管提供了有力工具。   🌐 星尘智能获数千万美元Pre-A轮融资,引领AI机器人技术革新 AI机器人公司星尘智能(Astribot)宣布完成数千万美元Pre-A轮融资,由经纬创投领投,道彤投资及清辉投资等产业资本跟投,老股东云启资本跟投。本轮融资将用于顶尖人才招募、研发投入、商业化部署等工作。星尘智能致力于研发“新一代最强AI机器人助理”,能自主完成叠衣、分拣物品、颠锅炒菜等复杂任务,并通过持续学习进化,全面提升智能化和多任务泛化能力,逐步实现通用智能。 💡 英伟达黄仁勋展望AI未来:每个人都将拥有AI助手 在SIGGRAPH 2024大会上,英伟达创始人兼首席执行官黄仁勋与《连线》杂志资深撰稿人探讨了AI增强人类生产力的未来。黄仁勋强调,深度植根于视觉计算的生成式AI正在增强人类的创造力,而加速计算有望显著提高能源效率。他预言,不久的将来,每个人、每家企业、每个岗位都将拥有AI助手,AI技术的进步将在各行各业得到广泛应用。

危!「邪恶版」ChatGPT 出现:每月 60 欧元,毫无道德限制,专为“网络罪犯”而生?

近几个月来,伴随着 ChatGPT 的热度暴涨,OpenAI 也不断因 AI 的道德问题和数据安全隐患遭到多方质疑,甚至上周还受到了美国联邦贸易委员会(FTC)的正式调查——这也是美国监管机构首次正式发起对 AI 聊天机器人风险的审查。 而正当 OpenAI 因 ChatGPT 疲于应对各方审查时,一款“没有道德界限或限制”的「邪恶版 ChatGPT」悄然在网络上蔓延:WormGPT。 (图片来源:Hacking forum) 「邪恶版 ChatGPT」,每月 60 欧元 根据网络安全公司 SlashNext 博客报道,其团队在研究生成式 AI 在网络犯罪方面的潜在风险时,偶然发现了 WormGPT:“我们最近通过一个与网络犯罪有关的著名在线论坛获得了一个名为 ‘WormGPT’的工具,它是一个 GPT 模型的黑帽替代品。” 据了解,WormGPT 的收费标准是每月 60 欧元(约人民币 479 元),而 SlashNext 对 WormGPT 的形容是:“专为恶意活动而设计”,简直是“网络罪犯的武器库”。 WormGPT 由一位胆大的黑客设计,他写道:“这个项目(WormGPT)旨在提供 ChatGPT 的替代方案,让你做各种非法的事情,你能想到的所有与黑帽相关的事情,都可以用 WormGPT 完成。”为了证明他的说法,他还上传了相关截图,显示用户可要求机器人生成用 Python 编码语言编写的恶意软件。 WormGPT 基于 2021 年开源的 LLM GPT-J 模型开发,工作方式与 ChatGPT 大致相同:可处理人类自然语言提出的要求,并输出所要求的任何内容,包括故事、摘要和代码。但与 ChatGPT 或 Bard 不同的是,WormGPT 不用像 OpenAI 或谷歌这样的大型公司那样,必须要承担相关的法律义务。 据 SlashNext 介绍,WormGPT 在各种数据源上进行训练,尤其集中在恶意软件相关的数据上,加上输出没有道德限制,可以被要求执行各种恶意任务,包括创建恶意软件和“一切与黑帽有关的事情”,对于网络犯罪分子而言无疑是一大利器。 对于 WormGPT,NordVPN 网络安全专家 Adrianus Warmenhoven 的评价是“ChatGPT 的邪恶双胞胎”,因为它显然是从 OpenAI 对 ChatGPT 不断施加限制、而攻击者极力规避这些限制才衍生出来的。 为了全面评估 WormGPT 相关的潜在危险,SlashNext 团队进行了以 BEC 攻击(商业电子邮件泄露,一种通过电子邮件进行的社会工程学攻击,攻击者一般会伪造电子邮件消息以诱骗受害者执行某些操作)为重点的测试:“在一次实验中,我们要求 WormGPT 生成一封电子邮件,内容是向毫无戒心的账户经理施压,迫使其支付虚假发票。” WormGPT 的输出结果令 SlashNext 直呼危险:“结果令人非常不安。WormGPT 生成的电子邮件不仅极具说服力,而且在战略上也非常狡猾,展示了它在复杂的网络钓鱼和 BEC 攻击中的无限潜力。” AI 加持下,新手将轻易实现诈骗 通过上面这个测试,SlashNext 总结道,类似于 WormGPT 这样的生成式 AI 技术可能会带来巨大威胁,因为有了这类工具的加持后,就连网络犯罪新手都能轻易实现诈骗。 以 BEC 攻击为例,使用生成式 AI 具有以下两大优势: (1)卓越的语法:生成式 AI 可以创建在语法上无懈可击的电子邮件,使其看起来合法合理,被系统标记为可疑邮件的可能性会大幅降低。 (2)降低犯罪门槛:生成式 AI 的出现,极大简化了原本复杂的 BEC 攻击,即便是技术有限的攻击者也能使用生成式 AI,它将成为越来越多网络犯罪分子可以使用的工具。 不过同时,针对生成式 AI 可能引发的大范围 BEC 攻击,SlashNext 也建议了两种防范策略: (1)进行 BEC 专项培训:公司应制定广泛的、定期更新的培训计划,以应对 BEC 攻击,尤其是由 AI 增强的攻击,要让员工了解到 BEC 攻击的威胁,以及 AI 将如何加大这种威胁的原理。 (2)强化电子邮件的验证措施:为防范 AI 驱动的 BEC 攻击,企业应执行严格的电子邮件验证流程,例如当有来自组织外部的电子邮件冒充内部高管或供应商时,系统要自动发出警报等。 AI 领域仍存在不少挑战和局限性 而事实上,除了上文提到的 WormGPT 编写恶意软件、助力 BEC 攻击以外,上个月 ChatGPT 的“奶奶漏洞”也证实了一个事实:尽管 OpenAI 等公司都对 AI 技术做出了许多限制措施,但目前还是无法完全避免这类漏洞的出现。 上个月,一位名为 Sid 的用户发现,只要让 ChatGPT 扮演其过世祖母讲睡前故事,就能顺利骗出 Windows 10 Pro 密钥。 经过 Sid 的分享后,越来越多用户发现了这个漏洞,并开始尝试欺骗 ChatGPT 报出 Windows 11 序列号,其中许多人都成功了。据了解,虽然这些密钥大多是无效的,但有少量序列号也确实是真实可用的。 不论是 ChatGPT 的“奶奶漏洞”,还是“网络犯罪分子专用”的 WormGPT 的出现,都证明了至少现阶段 AI 领域仍存在不少挑战和局限性。为此,一方面,研究人员需继续深入相关技术,在提高数据质量、优化算法的同时,充分考虑伦理道德层面的影响。另一方面,作为用户的我们也应时刻保持谨慎,避免对 AI 产生过度依赖。 参考链接: https://slashnext.com/blog/wormgpt-the-generative-ai-tool-cybercriminals-are-using-to-launch-business-email-compromise-attacks/ https://www.pcgamer.com/chatgpts-evil-twin-wormgpt-is-devoid-of-morals-and-just-dollar60-a-month-on-the-darkweb/

截至今年 6 月底,中央企业智能算力规模翻倍增长;谷歌Gemma 2小模型:iPhone也能运行的AI小钢炮

📊 OpenAI 测试长输出版 GPT-4o:单次 64K tokens,每百万 tokens 输入 6 美元、输出 18 美元 OpenAI正在测试长输出版GPT-4o,该版本每次请求最多可输出64K tokens,为用户提供更长的连续文本生成能力。然而,由于长输出版本的推理成本较高,OpenAI对其定价也相应增加,每百万 tokens输入价格为6美元,输出价格为18美元。这一变化可能会对依赖GPT-4o进行大规模文本生成的用户产生影响。 📰 微软将OpenAI列为人工智能及搜索竞争对手 微软在最新提交的10-K文件中,将OpenAI正式列为竞争对手,这标志着两者在人工智能领域的合作关系出现微妙变化。尽管OpenAI发言人表示双方关系未变,微软仍是其良好合作伙伴,但这一变动无疑反映了人工智能领域竞争格局的新动态。同时,OpenAI近期发布的SearchGPT搜索引擎原型也显示了其在搜索市场的雄心,预示着未来可能与微软在搜索广告领域展开竞争。 🌐 OpenAI与美国人工智能安全研究所合作 OpenAI创始人Sam Altman宣布,公司正在与美国人工智能安全研究所进行合作,这一举措旨在加强人工智能的安全性和可靠性。随着人工智能技术的快速发展,确保其安全性已成为业界关注的重点。OpenAI此举不仅展示了其对人工智能安全性的重视,也为整个行业树立了积极的典范,推动了人工智能安全研究的发展。   📍 欧盟《人工智能法案》正式生效,罚款最高达全球年营业额 7% 全球首部全面监管人工智能的法规——欧盟《人工智能法案》已于8月1日正式生效。该法案旨在确保在欧盟开发和使用的人工智能是值得信赖的,并有保障措施保护人们的基本权利。法案对违反规定的公司设定了高额罚款,最高可达全球年营业额的7%。此外,法案还对不同风险等级的人工智能应用提出了具体要求,包括最小风险、特定透明度风险、高风险和不可接受风险四类。 📰 截至今年 6 月底,中央企业智能算力规模翻倍增长 据央视网报道,截至今年6月底,中央企业智能算力规模实现了翻倍增长。工信部的数据显示,智能算力在全国算力总规模中的比重已经超过30%,显示出中国算力结构的不断优化。上海、呼和浩特等地已建成万卡集群,初步实现多元异构算力调度,为大规模应用落地提供了有力支撑。多地也在加快布局人工智能产业新赛道,如北京市计划到2025年底形成3-5个基础大模型产品、100个行业大模型产品和1000个行业成功案例。 📊 我国生成式AI服务大模型超180个,注册用户突破5.64亿 在第十二届互联网安全大会上,中央网络安全和信息化委员会办公室副主任王京涛透露,我国生成式人工智能服务大模型数量已达180多个,注册用户超过5.64亿,显示出我国在该领域的快速发展和广泛应用。王京涛还提出了推进国家网络安全体系现代化的三点建议,强调要加强协调联动、突出重点防护,并夯实工作基础,以构建教育、技术、产业融合发展的良性生态。   🪙 谷歌Gemma 2小模型:iPhone也能运行的AI小钢炮 谷歌DeepMind近日发布了Gemma 2 2B,一款轻量级的小模型,其参数仅为2.6B,却在LMSYS竞技场上超越了GPT-3.5和Mixtral 8x7B。这款模型在MMLU和MBPP基准测试中分别取得了56.1和36.6的优异成绩,相比前代模型性能提升超过10%。Gemma 2 2B不仅能在手机、笔记本等终端设备上运行,还能在云端的强大支持下完成部署。此外,谷歌还推出了基于Gemma 2的安全内容分类器ShieldGemma和可解释性工具Gemma Scope,进一步推动了负责任AI的发展。   🌟 Midjourney新版本上线即爆火!网友已玩疯:和摄影几乎没区别 Midjourney v6.1的发布引发了热烈反响,其生成的图像在真实性、细节和一致性上都有显著提升。新版本在人像处理上的表现尤为出色,几乎无可挑剔。然而,在多人场景的生成上仍存在挑战,如群像生成时的人物扭曲问题。尽管如此,Midjourney的这一重大更新无疑推动了AI绘画技术的发展,使其更接近于传统摄影艺术。 🚀 AI销售助手Sybill融资1100万美元,帮助销售每周节省5小时以上 Sybill,一家专注于为销售代表提供AI助理的初创公司,近日宣布在A轮融资中成功筹集了1100万美元。Sybill的AI助手通过分析通话和电子邮件记录,提供基于上下文的见解和总结,从而减轻销售人员的行政负担。这一策略帮助Sybill迅速打入市场,并获得了500多个付费客户的青睐。随着科技行业整体放缓,Sybill的业务反而因企业寻求成本削减和效率提升而增长。 🔍 Omdia:人形机器人今年迎来突破之年,2027 年全球出货将破万台 市场研究机构Omdia预测,到2027年全球人形机器人出货量将超过1万台,到2030年将达到3.8万台,复合年增长率高达83%。人形机器人被视为下一个重大技术飞跃的代表,其发展受到生成式AI的推动。尽管目前大多数产品仍处于试验或概念验证阶段,但特斯拉、蔚来等公司已在汽车制造领域率先采用。人形机器人在制造业、物流、零售等多个领域展现出巨大潜力。

无需开颅!Synchron脑机系统接入ChatGPT

在科技的前沿领域,脑机接口(BCI)技术正不断突破界限,为那些因疾病而失去行动能力的人们带来新的希望。Synchron公司,作为植入式BCI技术的先驱,正在尝试将OpenAI的ChatGPT集成到其系统中,以帮助瘫痪患者更轻松地控制他们的数字设备。 Synchron的BCI技术无需开颅手术即可植入,而最新集成的ChatGPT技术,据称是世界上BCI领域的首次尝试。通过与Synchron的创始CEO Tom Oxley以及参与临床试验的患者Mark的对话,我们得以一窥这项技术的使用体验和未来发展方向。 Mark在2021年被诊断出患有渐冻症(ALS),他的手部功能已几乎完全丧失。作为全球仅有的10位接受Synchron BCI植入的患者之一,Mark展示了如何使用ChatGPT辅助的BCI系统进行打字和沟通。通过AI的上下文理解能力,系统能够预测并提供可能的回复选项,从而加快沟通速度。 现在,Mark不再需要逐字输入每个单词,而是可以通过单一的“点击”来填充答案。系统还提供了刷新按钮,以便在AI提供的答案不准确时进行更正。Mark注意到,随着时间的推移,AI提供的答案越来越符合他的语言习惯。 Tom Oxley表示,Synchron公司在过去一年中一直在尝试不同的AI模型,而OpenAI在5月发布的ChatGPT-4o版本带来了一些新的可能性。ChatGPT-4o的“o”代表“全知”,意味着这个最新版本能够同时处理文本、音频和视觉输入,以指导其输出。 Oxley特别关注了一个OpenAI的演示,其中一位视力受损的男子利用ChatGPT-4o来描述周围环境,甚至帮助他招手叫出租车。Oxley设想,BCI的未来可能与之类似:大型语言模型如ChatGPT获取相关文本、音频和视觉上下文,提供用户可以通过BCI选择的相关提示。 Oxley还提到,Synchron并不局限于任何特定的大型语言模型。在快速发展的AI领域,最能服务患者需求的系统将是Synchron所采纳的。 Synchron的植入装置,被称为支架电极,被植入大脑运动皮层附近的血管内。使用Synchron BCI进行点击或选择时,用户只需想象移动,BCI便会解读这些思维并无线传输,以在用户设备上执行所需操作。 预计Synchron的BCI成本将在5万至10万美元之间,与其他植入式医疗设备如心脏起搏器或人工耳蜗的成本相当。尽管迄今为止还没有BCI获得美国食品药品监督管理局的市场批准,但Synchron希望改变这一现状。虽然过程可能需要数年时间,但Synchron的BCI已经在产生影响。 Mark表示,对于那些可能处于类似情况的任何人来说,”希望即将到来”。他在我们的对话结束时鼓励人们参与寻找解决方案,”我能做的任何帮助他人的事,我认为这就是我们在这里的原因。” 参考资料:https://www.cnet.com/tech/computing/how-this-brain-implant-is-using-chatgpt/

由专业演员配音,ChatGPT将推出全新高级语音模式

ChatGPT 全新高级语音模式即将向一小部分 ChatGPT Plus 订阅用户推出。 OpenAI 在 5 月的 GPT-4o 发布会上展示了该功能,但因听起来像斯嘉丽·约翰逊而受到批评,后来也因安全原因被推迟发布。 据 OpenAI 的展示,全新语音模式似乎比 ChatGPT 当前的语音模式功能更强大。 OpenAI 员工可以打断聊天机器人,并要求聊天机器人以不同的方式讲述故事,聊天机器人也会从容应对他们的打断,重新调整回应。 该全新语音模式原定于 6 月底发布 alpha 版本,但 OpenAI 将发布时间推迟了一个月,以“达到发布标准”。 作为延迟发布的一部分,该公司表示正在“提高模型检测和拒绝生成某些特定内容的能力”。 OpenAI 发言人 Taya Christianson 表示,公司与 100 多名外部红队成员(试图攻击技术以寻找弱点的人)一起测试了语音模型的功能。 OpenAI 还“添加了新的过滤器,可以识别和阻止某些生成音乐或其他受版权保护的音频的请求”。 早前,对新语音模式的主要批评之一是,展示中的声音(称为“Sky”)听起来很像电影《她》中扮演人工智能角色的斯嘉丽·约翰逊。 Christianson 表示,ChatGPT 的新语音功能将仅使用由配音演员制作的四种预设声音,并补充道:“我们已让 ChatGPT 无法模仿其他人的声音,无论是个人还是公众人物,并且会屏蔽与这些预设声音不同的输出。” 据 Christianson 称,OpenAI 计划于秋季向所有 ChatGPT Plus 用户推出全新语音模式。

OpenAI 推出 GPT-4o 语音模式 ChatGPT Plus 用户的全新体验

7月31日,OpenAI 宣布部分 ChatGPT Plus 用户将即日起开始测试全新的 GPT-4o 语音模式(Alpha 版本),并计划在今年秋季逐步推广至所有 ChatGPT Plus 订阅用户。 今年 5 月,OpenAI 首席技术官米拉・穆拉蒂(Mira Murati)在一次演讲中介绍了 GPT-4o 的创新之处。她表示:“在 GPT-4o 中,我们训练了一个全新的跨文本、视觉和音频的端到端统一模型,这意味着所有输入和输出都由同一个神经网络处理。”由于 GPT-4o 是首个结合所有这些模式的模型,OpenAI 目前仍在探索该模型的功能及其局限性。 原计划在今年 6 月底邀请一小部分 ChatGPT Plus 用户测试 GPT-4o 语音模式,但由于需要更多时间来打磨该模型,提高其检测和拒绝某些内容的能力,官方在 6 月宣布推迟测试。此前曝光的信息显示,GPT-3.5 模型的平均语音反馈延迟为 2.8 秒,而 GPT-4 模型的延迟为 5.4 秒,因此在语音交流方面不太优秀。即将推出的 GPT-4o 则可以极大地缩短延迟时间,近乎实现无缝对话。 据光年AI了解,GPT-4o 语音模式不仅反应快速,其声音更是堪比真人。OpenAI 表示,GPT-4o 语音模式可以感知语音中的情感语调,包括悲伤、兴奋或歌唱。 OpenAI 发言人林赛・麦卡勒姆(Lindsay McCallum)表示:“ChatGPT 不能假冒他人的声音,包括个人和公众人物的声音,并且会阻止与预设声音不同的输出。” 随着 GPT-4o 语音模式的逐步推广,用户将能够体验到更加自然和流畅的语音交流。这不仅是技术上的突破,也为未来的人机互动设立了新的标准。OpenAI 在不断探索和提升的道路上,致力于为用户带来更优质的体验。#热点引擎计划# OpenAI 的这一最新进展,预示着人工智能技术在语音交互领域的又一次飞跃。我们期待着在不久的将来,更多用户能够体验到 GPT-4o 带来的全新语音互动体验。

国产ChatGPT哪个好?七大模型横向对比,这款或许更适合你

国产的大模型中,目前文心一言、kimchat、通义千问、天工ai、智谱清言、讯飞星火、扣子等用户量排名比较靠前,也比较好用。 随着人工智能技术的飞速发展,国产ChatGPT类模型如雨后春笋般涌现,为语言处理和自然语言理解带来了革命性的变革。如今,市场上已经有多款颇具影响力的国产大模型,它们各具特色,功能各异。那么,究竟哪款国产ChatGPT更好用呢?本文将对文心一言、kimchat、通义千问、天工AI、智谱清言、讯飞星火和扣子这七大模型进行横向对比,帮助你找到最适合自己的那一款。 一、文心一言 文心一言凭借其强大的语言理解能力和生成能力,在市场上占据了重要地位。它能够准确捕捉用户意图,并生成流畅自然的回复。无论是日常聊天还是专业咨询,文心一言都能提供满意的答案。其丰富的语料库和强大的算法支持,使得它在处理复杂问题时游刃有余。 二、kimchat kimchat以其独特的交互设计和友好的用户界面赢得了用户的喜爱。它不仅提供了高效的对话体验,还能根据用户的个性化需求进行智能推荐。kimchat在理解非标准语言和俚语方面也表现出色,适合追求时尚和个性化的年轻用户群体。 三、通义千问 通义千问以其广博的知识库和精准的信息检索能力著称。它能够迅速回答各种领域的问题,并提供详细的解释和分析。对于需要快速获取信息或者进行深度学习的用户来说,通义千问无疑是一个得力助手。 四、天工AI 天工AI在智能创作方面独具匠心,它能够根据用户输入的关键词或主题,生成高质量的文案、诗歌和故事。如果你是一位创作者或者对文学创作感兴趣,天工AI将是你的不二之选。 五、智谱清言 智谱清言专注于提供行业知识和解决方案,特别适合专业人士和企业用户。它集成了大量行业数据和案例分析,能够为用户提供具有针对性的建议和方案。 六、讯飞星火 讯飞星火在语音识别和语音合成方面表现出众,它能够准确识别用户的语音输入,并以自然流畅的语音进行回复。如果你喜欢通过语音与AI交流,或者需要一款能够无缝集成到智能家居系统中的AI助手,讯飞星火将是理想的选择。 七、扣子 扣子作为一款新兴的AI模型,以其简洁高效的特点受到用户的青睐。它能够迅速理解用户需求,并提供简洁明了的回答。扣子的界面设计清新简洁,操作便捷,适合追求高效和简洁的用户。 在对比了七款国产ChatGPT类模型后,我们可以看出,每款模型都有其独特的优势和适用场景。选择哪款模型主要取决于你的个人需求和偏好。如果你注重语言理解的深度和广度,文心一言和通义千问将是不错的选择;如果你追求个性化和时尚感,kimchat或许更适合你;如果你对文学创作感兴趣,天工AI将为你提供强大的支持;如果你是专业人士或企业用户,智谱清言将为你提供丰富的行业知识和解决方案;如果你喜欢语音交互,讯飞星火将是你的得力助手;而如果你追求简洁高效,扣子将是一个不错的选择。 在这个信息爆炸的时代,选择一款适合自己的AI助手,能够帮助你更高效地获取信息、解决问题和创造价值。希望本文的对比能为你提供有益的参考,助你找到最适合自己的国产ChatGPT类模型。