Skip to content
AI资讯
AI大模型
AI营销
标签:
ChatGPT
GPT-4o版「Her」终于来了!讲笑话、学猫叫,AI女友能有多撩人?
GPT-4o语音功能终于如期而至,科幻版Her走进现实!一些灰度测试到的网友们已经玩疯了,不过,OpenAI目前只给了4种预设语音。另外,GPT-4o新模型的输出token也暴涨16倍至64K。 奥特曼的承诺,终于兑现了。 赶在7月结束前,GPT-4o语音模式终于开启了灰度测试,一小部分ChatGPT Plus用户已经拿到了尝鲜入场券。 如果打开ChatGPT App之后看到了下面这个界面,恭喜你成为了首批幸运儿。 OpenAI称,高级语音模式提供了更加自然、实时对话,可以随意打断,甚至它还可以感知、回应你的情绪。 预计在今年秋季,所有ChatGPT Plus用户,都能用上这个功能。 另外,视频和屏幕共享更强大的也在稍后推出。也就是,开启摄像头,就能和ChatGPT「面对面」聊天了。 一些被灰度到的网友们纷纷开启测试,发现了GPT-4o语音模式的诸多用例。 这不,有人就让它充当「二外教练」,教自己练习口语。 ChatGPT在下面的教学中,帮助网友纠正了Croissant(羊角面包)、Baguette(法式长棍)的发音。 与此同时,GPT-4o的输出token暴涨了16倍,从最初4000个token增加到64000个token。 这是OpenAI最近在官方网页中,悄然推出的测试版新模型gpt-4o-64k-output-alpha。 更长的输出token,就意味着,一次性可以得到大约4个完整的长篇电影剧本。 Her已来 之所以现在才放出GPT-4o语音功能,是因为过去几个月里,OpenAI一直对其进行安全性、质量测试。 他们与100+红队人员,就45种语言对GPT-4o语音能力进行了测试。 为保护人们的隐私,团队训练模型只使用4种「预设声音」说话。 他们还创建了一个系统,去阻止在这4种声音之外,其他声音的输出。 此外,内容过滤也是必不可少,团队还采取措施阻止暴力、有关版权内容的生成。 OpenAI预告,计划在8月初,会发布一份关于GPT-4o能力、局限性、安全评估的详细报告。 全网实测 下面是网友分享的GPT-4o语音模式的一些案例。 ChatGPT可以表演节奏口技。 ChatGPT还可以以害羞、生气、更愤怒的语气讲出了关于啤酒的笑话。 还有网友专为ChatGPT讲了一个笑话「为什么科学家不相信Adam-Atom,因为它们构成了一切」。 ChatGPT不失尴尬地笑了起来。 更搞笑的是,ChatGPT学起猫叫还是有一套的。 有人经过一番测试下来,发现ChatGPT高级语音模式非常快,回答几乎没有延迟。 当被要求模仿一些声音时,它总是可以真实复刻出声音。而且不同口音,也可以模仿出来。 下面这个视频中,展示了AI充当足球比赛解说员的场景。 ChatGPT用中文讲故事,也很生动。 OpenAI虽然声称,视频和屏幕共享功能稍后推出,不过已经有网友先用上了。 网友有一只猫咪新宠,为它搭建了小窝,准备了吃食,但不知道怎么样,于是就问问ChatGPT。 在视频的对话中,网友向它展示了猫咪的屋子,ChatGPT看过后评价道,「一定非常舒适」,并关心猫咪如何。 网友表示,它目前为止还没有吃东西,看起来有点担心。ChatGPT安慰道,「这很正常,对于猫咪来说需要适应的时间」。 可以看出,整个问答过程非常流畅,给人一种与真人交流的感受。 网友还翻出了日语版界面游戏机,但是自己又不会日语。 这时,他一边向ChatGPT展示游戏界面,一边让其帮自己做翻译,最后胡一起通关游戏。 不得不说,有了视觉+语音模式的加持,ChatGPT强了很多。 GPT-4o Long Output悄悄上线,输出高达64K 另外,支持更大token输出的GPT-4o随之而来。 就在昨天,OpenAI正式宣布向提供测试者GPT-4o Alpha版本,每次请求支持最多输出64K token,相当于200页小说。 测试者可以从「gpt-4o-64k-output-alpha」,访问GPT-4o的长输出功能。 不过,新模型的价格再次刷新天花板。每百万输入token 6美元,每百万输出token 18美元。 虽说输出token是GPT-4o的16倍,但价格也涨了3美元。 这么一比,果然还是gpt-4o-mini价格香! 研究员Simon Willison表示,长输出主要用于数据转换用例。 比如,将文档从一种语言翻译成另一种语言,或从文档中提取结构化数据,几乎每个输入token都需要在输出的JSON中使用。 在此之前,他所知道的最长输出模型是GPT-4o mini,为16K token。 为什么推出更长输出的模型? 显然,更长的输出,可以让GPT-4o提供更全面、细致的响应,对于一些场景非常有帮助。 比如,编写代码、以及对写作的改进。 这也是基于用户的反馈——需要更长输出内容才能满足用例,OpenAI才做出的调整。 上下文和输出之间的区别 GPT-4o自推出以来,便提供了最大128K的上下文窗口。而对于GPT-4o Long Output,最大上下文窗口仍然是128K。 那么,OpenAI如何在保持整体上下文窗口为128K的情况下,将输出token数量从4,000增加到64,000呢? 这是因为,OpenAI在最初就限制了输出token数量,最大为4000个token。 这意味着,用户可以在一次交互中最多以124,000个token作为输入,也最多只能得到4000个输出token。 当然,你也可以输入更多token,那就意味着输出token更少了。 毕竟长下文长度(128K)就固定在那里,不管输入怎么变,输出token也不会过4000。 而现在,OpenAI将输出token长度限制在64,000 token,也就是说,你可以比以往多输出16倍的token。 毕竟,输出计算量更大,价格涨幅也更大。 同样,对于最新的GPT-4o mini,上下文也是128K,但最大输出已提升至16,000个token。 那么,用户可以提供最多112,000个token作为输入,最终得到最多16,000个token的输出。 总的来说,OpenAI在这里提供了一个方案,限制输入token,以获取LLM更长的响应,而不是直接扩大上下文长度。 而市面上其他模型,长的都已经超过百万了(Gemini),稍微短一些的也有200K(Claude);甚至有的模型输出都已经达到了200K,而OpenAI还在这儿抠抠搜搜。 这也就把难题扔给了开发者:想要输入多,那就得接受输出少;想要输出多,那就得输入少一些。 具体怎么衡量,看你们自己愿意牺牲哪一个了…… 参考资料: https://x.com/OpenAI/status/1818353580279316863 https://x.com/tsarnick/status/1818402307115241608 https://x.com/kimmonismus/status/1818409637030293641 https://www.reddit.com/r/singularity/comments/1eg51gz/chatgpt_advanced_audio_helping_me_pronouce/ https://venturebeat.com/ai/openai-launches-experimental-gpt-4o-long-output-model-with-16x-token-capacity/
我在谷歌上已经死了二十年?
几十年来,任何想要了解一切的人都会询问谷歌,——但这个平台是否正在失去优势?我们还能相信它会告诉我们真相吗? 在谷歌上搜自己的时候发现自己死了? 近日,自由撰稿人Tom Faber在《卫报》上发文表示,谷歌搜索把自己的照片和另一个同名的人的传记混淆了。 「一张我笑脸的照片,旁边写着:Tom Faber是一位物理学家和出版商,他在剑桥大学担任了35年的大学讲师,于2004年7月27日去世,享年77岁。」 「直到我在谷歌上看到自己去世的消息,我才知道自己已经去世了。」 Tom Faber并不是唯一一个对谷歌感到苦恼的人。 曾以创新算法和简洁界面获得巨大成功的谷歌搜索,如今却面临诸多问题。 比如算法将用户信息混淆,搜索结果质量下降,充斥垃圾邮件和错误信息,界面混乱影响用户寻找答案,还因广告业务被指损害用户体验。 另一方面,ChatGPT的崛起,被许多人称为搜索引擎杀手。比尔·盖茨在去年表示,一旦有公司完善了人工智能助手,用户就再也不会去搜索网站了。 屠龙少年与PageRank 很难想象有任何东西能取代谷歌。 去年,谷歌成立25周年,其母公司Alphabet市值超过2万亿美元,而谷歌在全球搜索市场占有高达90%的份额。 谷歌已经远远超越了本身作为工具的范畴,成为了一种基础设施,因为任何事物都依赖互联网的眼球来运作。 谷歌于是拥有了巨大的权力,可以左右政治、社会态度和无数企业的命运。 起源神话 20世纪90年代末,一对计算机极客谢尔盖·布林(Sergey Brin)和拉里·佩奇(Larry Page)在车库里创办了谷歌。 当时,网络发展迅速,搜索引擎的竞争初现。佩奇和布林的想法是不仅根据网页与搜索查询的相关性对网页进行排序,还要考虑网页信息的质量。 他们建立了大名鼎鼎的PageRank系统,根据链接过来的其他网页数量对网页进行优先排序,——如果许多人链接到某个特定来源,那么该来源的信息质量一定很高。 有效的方法,加上简洁干净的界面,每个人都能看出谷歌搜索的结果比其他公司好得多。 谷歌很快就赢得了大量信任和好感,其「整合全球信息」的使命更是令人鼓舞。 如果你想知道什么,「谷歌一下」,大多数时候,它都会给你想要的答案。于是其他搜索引擎渐渐消亡,搜索成为谷歌的代名词,而「谷歌」成为了一个动词。 忘记初心 凭借自己的成功,谷歌收集了大量用户数据,并利用这些数据改进搜索算法。 同时,谷歌也意识到用户的数据可能很有商业价值,因为它们捕捉到了用户的想法、愿望和内心深处的问题。谷歌利用这些信息重塑了广告业。 从YouTube到地图,谷歌的许多产品都会收集用户数据,从而实现广告的个性化。广告是谷歌的支柱业务,去年,其母公司Alphabet 77%的收入来自广告(2378.5亿美元)。 在这种情况下,谷歌的搜索也悄然发生着变化。 如果把谷歌比作图书馆,那么以前你想借一本书时,图书馆会立即拿出来;而现在,图书管理员会试图向你推销杂志订阅,向你展示一些其他人喜欢的不同书籍,最后拿出一大堆大部头的书,而你想要的书尴尬地夹在中间。 事实上,谷歌的创始人很早就意识到,商业激励可能会损害搜索结果的完整性。 在1998年的一篇学生论文中,布林和佩奇写道,广告资助的搜索引擎「本质上偏向广告商,远离消费者的需求」。 然而,谷歌还是义无反顾地开始展示广告,正如一位学者所言,这是将搜索货币化的唯一好方法。 于是,在成功的道路上,谷歌逐渐失去了早期赢得的公众好感,那句「不作恶」的座右铭也变得讽刺。 争渡争渡,垃圾无数 批评者称谷歌最新的搜索结果为「辣鸡」。 除了谷歌自身的问题,另外两个毒瘤就是垃圾邮件和搜索引擎优化 (SEO) 。 SEO公司的目标是让网站在谷歌搜索排名中更靠前,所以网页的内容只是为了取悦谷歌的算法而量身定制的。 以搜索食谱为例,用户可能希望看到它们简洁地显示在页面顶部,但大多数美食博客会将食谱埋在长篇轶事之下,因为谷歌算法偏爱这种格式,尽管读者可能很反感。 而所谓的「黑帽」SEO,更是通过技术手段生产互联网垃圾,例如「域名抢注」、「声誉滥用」、「讣告垃圾邮件」、「关键词群发」或「寄生虫托管」。 垃圾页面通常没有什么有意义的内容,只是为了登上谷歌搜索结果的顶部,通过托管侵入性广告从每次访问者的点击中获利。 另一方面,垃圾邮件发送者也与时俱进,让谷歌陷入了一场永无休止的战斗。 每当垃圾邮件发送者想出一种新技术,谷歌就调整算法使其失效,然后发送者又想出了别的办法。 而在如今这个AI的时代,互联网正面临着新一波人工智能垃圾邮件的威胁,这可能会成为压垮搜索引擎的最后一根稻草。 垄断市场 如果谷歌的搜索结果不好,为什么人们还要用它呢? 美国司法部认为,谷歌利用其财富以非法垄断的方式进行反竞争运营,主要是向其他科技公司付费,让其成为其设备上的默认搜索引擎(比如在2022年向苹果支付200亿美元)。 谷歌最大的竞争对手微软的必应(Bing)仅占全球搜索市场的3%左右。许多其他初创公司的份额仅为1%,只能存活在自己的赛道上:Perplexity提供书面形式的问题答案,Kagi采用无广告的付费订阅模式,DuckDuckGo专注于保护数据隐私。 Perplexity首席执行官Aravind Srinivas表示:「与谷歌竞争是禁区。他们可以免费提供你提供的一切,让你吃不消。」 平台衰亡理论 谷歌搜索引擎是否存在竞争真的很重要吗? 作家Cory Doctorow创造了术语「enshittification」来解释现代大型科技公司的现状。 「平台的灭亡方式如下:首先,它们对用户很好;然后它们滥用用户来为商业客户提供更好的服务;最后,它们滥用这些商业客户来为自己收回所有价值。然后,它们就灭亡了。」 Doctorow表示,算法系统尤其容易受到这种影响,因为它们的工作原理对用户来说是不透明的,很容易被悄悄调整。 谁知道为什么你会在谷歌搜索结果、Instagram信息流或TikTok For You页面的顶部看到这些内容?是因为它被认为是最适合你的内容,还是因为平台认为它能带来最多的收入? 末日预测,也是互联网的衰落 多年来,人们一直在热情预测谷歌的消亡——甚至有一个名为「谷歌末日预测」的维基百科页面,其中的例子可以追溯到2007年。 也许真正困扰人们的是,在2024年,互联网给人的感觉更糟糕了。 那些90年代末和00年代初在网络上长大的人,可能还记得开放、社区和自由思想。而今天,我们可能更倾向于将互联网与焦虑、孤独和压力联系起来。 也许我们怀念互联网更人性化的时代,就像Reddit这样的庞大而混乱的论坛。在那里你可以得到别人诚实的意见,尽管它很奇怪,但不受模糊的品牌联想或附属链接的影响。 进击的OpenAI 如果搜索问题还不够棘手的话,今天许多人预测,新AI技术的出现将改变一切。 自OpenAI推出ChatGPT以来,技术专家们一直在想,AI助手是否有一天会取代搜索引擎。到了去年,微软宣布将把ChatGPT整合到其搜索引擎结果中。 谷歌慌了。 尽管在大模型的战争中处于下风,也不得不把多年来一直在背后使用的AI搬到了台面上。 只是今天的LLM仍然在靠谱与不靠谱之间徘徊。 我应该吃多少石头? 谷歌表示,LLM与搜索的结合很有用,尤其非常适合需要大量特定变量的查询。 比如,你正在巴黎寻找一家可以供家人就餐的素食餐厅,条件是早上7点营业,步行即可到达地铁站。这些问题以前可能需要花10分钟点击大量搜索,而现在AI只需几秒钟即可完成。 不过深得人类抽象精髓的AI,可不会一开始就乖乖给你打工。 如果你问「我应该吃多少块石头?」,谷歌的AI可能会告诉你「根据加州大学伯克利分校地质学家的说法,建议每天至少吃一块小石头,因为石头中含有对消化健康很重要的矿物质和维生素。」 还有「怎么把奶酪粘在披萨上」,AI建议「在酱汁中加入约1/8杯无毒胶水,使其更粘稠」。 这些错误信息都是AI从浩瀚网络中学到的。吃石头来自讽刺网站洋葱报的一篇文章,而胶水披萨的想法是11年前Reddit上的一篇帖子。 对于全网的嘲讽,谷歌表示,「这些都是成长的烦恼」。 搜索引擎会消失吗? ChatGPT和AI Overviews预示的新方向是,我们不再自己寻找答案,而是得到一个单一的、据称是平衡的答案,这个答案已经被算法预先咀嚼过。 「总结或搜索的简化,对整个社会来说是一件坏事,重要的是从搜索、从你自己信任的或新的来源获得一系列不同的观点,练习批判性思维并形成自己的观点。」 参考资料: https://www.theguardian.com/technology/article/2024/jul/20/google-is-the-worlds-biggest-search-engine-broken
OpenAI开发ChatGPT「反作弊神器」,99.9%超高命中率!但没发布
OpenAI又左右互搏上了,给AI生成的文本打水印,高达99.9%准确率抓「AI枪手」作弊代写。 去各大高校图书馆转一圈,会发现头上一副耳机、手边一杯咖啡,电脑上一个AI工具网页几乎成了当代大学生标配。 学生热衷于在ChatGPT的帮助下完成作业,教师们却头疼于无法杜绝学生用ChatGPT作弊的行为。 人工智能可以根据一个提示,在几秒钟内免费创建整篇论文或研究论文。教师和教授表示,他们迫切需要帮助来打击滥用行为。 《每日邮报》2023年1月30报道称,UNSW的1名学生使用ChatGPT自动生成论文被抓,这也是全澳第一个使用AI技术作弊被抓的学生。 UNSW人工智能教授Toby Walsh表示,各大高校都在评估如何阻止学生使用AI技术作弊。 随后,新州、昆州和塔州都封锁了校园网络对于ChatGPT的访问,以防学生通过该技术作弊。 但Walsh教授表示,阻止校园网络访问ChatGPT是没有意义的,因为学生们可以通过代理绕过封锁。 「想要彻底阻止学生作弊,只能把他们放在一个没有网络的环境里,给他们一张纸和一支笔。」 CDT最近进行的一项调查发现,59%的中学教师确信有些学生使用了AI来帮助完成学业,比前一个学年上升了17个百分点。 要想靠老师和学校的盯梢,避开ChatGPT的诱惑很难办到,解铃还须系铃人——让AI企业亲自出马解决抓「AI枪手」。 据悉,OpenAI已经开发出一款能够高精度识别ChatGPT生成文本的工具,但迟迟未发布。 「文本水印」抓作弊,成功率99.9% ChatGPT由人工智能系统提供支持,生成原理是根据输入内容预测句子中接下来出现的token。 OpenAI正在讨论的反作弊工具将稍微改变token的选择方式,这些变化会留下一种称为水印的图案。 这些水印肉眼无法察觉,但可以通过OpenAI的检测技术发现,检测器提供整个文档或部分文档由ChatGPT编写的可能性的分数。 根据内部文件,当ChatGPT创建足够多的新文本时,水印的有效率可以达到99.9%。 虽然准确率超高,OpenAI工作人员仍然担心,换一种方式可以轻松卡Bug,通过简单的技术来删除水印。 例如让Google将文本翻译成另一种语言,然后再翻译回来,或者让ChatGPT在文本中添加表情符号,然后手动删除它们。 另一方面,公司内部普遍认为,谁可以使用该探测器将也是一个棘手的问题。 如果拥有该工具的人太少,工具基本上就没有用处。如果太多人获得访问权限,有些人可能会尝试破译水印技术。 OpenAI员工也讨论过,直接向教育工作者或外部公司提供检测器,帮助学校识别人工智能撰写的论文和抄袭作品。 谷歌其实也开发过一种水印工具,可以检测Gemini AI生成的文本,叫做SynthID,正处于Beta测试阶段,尚未广泛使用。 OpenAI有一个工具可以确定图像是否是使用文本到图像生成器DALL-E 3创建的,该工具于去年春天发布用于测试。 该知情员工表示,该公司优先考虑音频和视频水印而不是文本,因为其危害更为严重,尤其是在美国繁忙的选举年。 AI文本分类器 早在2023年1月,OpenAI就发布了一种算法,旨在检测多个AI模型(包括其自己的模型)编写的文本。 但它的成功率仅为26%,七个月后OpenAI就将其撤回。 其他公司和研究人员还开发了一些工具来检测人工智能创建的文本,许多教师表示他们已经使用过这些工具。 但它们有时无法检测由高级大语言模型编写的文本,并且准确率很低,可能产生误报。 最近在佐治亚州一所私立高中任教的教育工作者人工智能顾问Mike Kentz表示,起初,学生们确实被震慑到,以为老师们已经完全掌握了一种方法,可以弄清楚他们是否使用了人工智能代写。 但到了年底……他们慢慢发现,等一下,我的老师好像不知道。 一些老师鼓励学生使AI来帮助研究或提供想法反馈。但问题是,当学生使用像ChatGPT这样的应用程序来完成所有工作时,学生甚至不会去检查自己交的是什么。 去年,犹他大学政治学教授Josh McCrain给学生布置了一份写作作业,作业要求插入了难以辨认的小文字,其中提到了和作业无关的蝙蝠侠。 如果他们将作业复制并粘贴到人工智能中,作业提示内容就会被合并,「蝙蝠侠」就会干扰作业内容。果然,少数学生提交了作业——一篇蝙蝠侠论文。McCrain教授正在调整写作作业,更多地关注人工智能不太熟悉的时事,并恳求学生不要将他们的工作外包给人工智能。「这就是我试图向学生们强调这一点的地方:你需要自己学习这些东西。」McCrain教授说。 争论不休 知情人士称,有关水印工具的讨论早在OpenAI于2022年11月推出ChatGPT之前就已经开始。 它是由计算机科学教授Scott Aaronson开发的,过去两年他在德克萨斯大学休假期间一直在OpenAI从事安全工作。 2023年初,OpenAI联合创始人之一John Schulman在一份共享的Google文档中概述了该工具的优缺点。 OpenAI高管随后决定,在采取进一步行动之前,他们将征求一系列人士的意见。 在接下来的一年半时间里,OpenAI高管反复讨论,并寻求新数据集优化算法,犹豫是否发布该技术。 内部文件显示,2023年4月,OpenAI委托进行了一项调查,结果显示,世界范围的人们以四比一的比例支持人工智能检测工具的想法。 同月,OpenAI对ChatGPT用户进行了调查,发现69%的人认为作弊检测技术会导致使AI技术错误指控。 近30%的人表示,如果ChatGPT部署了水印功能,而竞争对手没有部署水印,他们会减少使用。 另外,OpenAI内部还有一种反对的声音是反作弊工具可能会损害ChatGPT的写作质量。 知情人士称,OpenAI今年早些时候进行了一项测试,发现文本水印不会降低输出质量。 6月初,OpenAI高级员工和研究人员再次聚会讨论该项目。该组织一致认为水印技术效果良好,但去年的ChatGPT 用户调查结果仍然是一个头疼的问题。 内部文件显示,OpenAI需要在今年秋天之前制定一项计划,围绕AI透明度以及相关潜在新法律来左右公众舆论—— 「如果做不到这一点,我们就有可能失去负责任企业的信誉。」 参考资料:https://www.wsj.com/tech/ai/openai-tool-chatgpt-cheating-writing-135b755a?mod=tech_lead_story
谷歌终于赢了OpenAI一回:实验版本Gemini 1.5 Pro超越GPT-4o
这么强的模型,谷歌给大家免费试用。 近两日,谷歌在不断发布最新研究。继昨日放出最强端侧 Gemma 2 2B 小模型后,刚刚,Gemini 1.5 Pro 实验版本 (0801) 已经推出。 用户可以通过 Google AI Studio 和 Gemini API 进行测试和反馈。 既然免费,那我们帮大家测试一下最近比较火的比大小问题。当我们问 Gemini 1.5 Pro (0801) 9.9 和 9.11 哪个数大时,模型一次就能回答正确,并给出了理由。 当我们继续追问「Strawberry 单词里面有多少个 r」时,然而 Gemini 1.5 Pro (0801) 却翻车了。在提示语中施加「咒语」一步一步来,模型分析到第四步就出错了。 Google AI Studio 测试地址:https://aistudio.google.com/app/prompts/new_chat 不过,从官方评测来看,Gemini 1.5 Pro (0801) 各项指标还是很能打的。新模型迅速夺得著名的 LMSYS Chatbot Arena 排行榜榜首,并拥有令人印象深刻的 ELO 分数,得分为 1300。 这一成就使 Gemini 1.5 Pro (0801) 领先于 OpenAI 的 GPT-4o(ELO:1286)和 Anthropic 的 Claude-3.5 Sonnet(ELO:1271)等强大竞争对手,这或许预示着人工智能格局的转变。 Gemini 团队关键成员 Simon Tokumine 称 Gemini 1.5 Pro (0801) 是谷歌迄今为止制造的最强大、最智能的 Gemini (模型)。 除了拿到 Chatbot Arena 榜首,Gemini 1.5 Pro (0801) 在多语言任务、数学、Hard Prompt 和编码等领域也表现相当出色。 具体而言,Gemini 1.5 Pro (0801) 在中文、日语、德语、俄语方面均表现第一。 但在编码、Hard Prompt 领域,Claude 3.5 Sonnet、GPT-4o、Llama 405B 仍然处于领先地位。 在 win-rate 热图上:Gemini 1.5 Pro (0801) 对阵 GPT-4o 的胜率为 54%,对阵 Claude-3.5-Sonnet 的胜率为 59%。 Gemini 1.5 Pro (0801) 在 Vision 排行榜上也第一! 网友纷纷表示,谷歌这次真是出乎所有人的预料,没有提前官宣就突然开放测试最强模型,这次压力给到了 OpenAI。 虽然 Gemini 1.5 Pro (0801) 取得了很高的成绩,但它仍处于实验阶段。这意味着该模型在广泛使用之前可能会进行进一步的修改。 网友评测 有网友对 Gemini 1.5 Pro (0801) 的内容提取能力、代码生成能力、推理能力等进行了测试,我们来看下他的测试结果。 来源:https://x.com/omarsar0/status/1819162249593840110 首先,Gemini 1.5 Pro (0801) 的图像信息提取功能很强,例如输入一张发票图像,将发票细节用 JSON 格式编写出来: 再来看下 Gemini 1.5 Pro (0801) 的 PDF 文档内容提取功能,以经典论文《Attention Is All You Need》为例,提取论文章节目录: 让 Gemini 1.5 Pro (0801) 生成一个帮助学习大型语言模型(LLM)知识的 Python 游戏,该模型直接生成了一整段代码: 值得一提的是,Gemini 1.5 Pro (0801) 还给出了详细的代码解释,包括代码中函数的作用、该 Python 游戏的玩法等等。 这段程序可以直接在 Google AI Studio 中运行,并且可以试玩,例如做道关于 Tokenization 定义的选择题: 如果觉得选择题太简单无聊,可以进一步让 Gemini 1.5 Pro (0801) 生成一个更复杂的游戏: 得到一个 LLM 专业知识句子填空游戏: 为了测试 Gemini 1.5 Pro (0801) 的推理能力,网友提问了一个「吹蜡烛」问题,但模型回答错误: 尽管有一些瑕疵,但 Gemini 1.5 Pro (0801) 的确表现出接近 GPT-4o 的视觉能力,以及接近 Claude 3.5 Sonnet 的代码生成和 PDF 理解、推理能力,值得期待。 参考链接: https://www.youtube.com/watch?v=lUA9elNdpoY https://x.com/lmsysorg/status/1819048821294547441
向世界级软件开发大师“Bob 大叔”Robert C. Martin 提出你的疑虑!
函数式编程作为一种编程范式,其根源可以追溯到 20 世纪 30 年代,当时数学家们正在探索计算理论的基础。1936 年,阿隆佐·丘奇提出了 λ 演算(Lambda Calculus),这是一种形式系统,用于表达函数抽象、函数应用以及变量绑定。丘奇的 λ 演算为函数式编程奠定了理论基础。 同年,艾伦·图灵提出了图灵机的概念,这是一种理论上的计算模型,能够模拟任何计算机算法的逻辑工作流程。图灵机与 λ 演算在理论上被证明是等价的,即它们具有相同的计算能力。这一发现不仅推动了计算理论的发展,也为后续的编程语言设计提供了理论支持。 如今,函数式编程因其易于理解和维护的特点,以及处理并发问题的能力,开始受到越来越多的关注。许多现代编程语言要么本身就是函数式语言,要么至少提供了一些函数式编程的支持。 针对希望在日常工作中利用函数式编程解决问题的程序员,知名软件匠人 Robert C. Martin(简称 Bob 大叔)撰写了一本新书——《函数式设计:原则、模式与实践》。这本书的标题也致敬了他的经典著作《敏捷软件开发:原则、模式与实践》,旨在帮助程序员理解如何使用函数式编程语言来完成实际任务,而不是深入探讨 Monads、Monoids、Functors 等理论概念。这些理论虽然非常重要,但在大多数情况下已经融入了常见的语言、代码库和框架之中。 CSDN《新程序员》即将采访 Robert C. Martin,向 Bob 大叔讨教最卓越成效的编程技巧,同时询问他对于当今 AI 编程革命的最新观点。在此,CSDN 面向所有开发者征集“你最想问 Robert C. Martin(Bob 大叔)的 1 个问题”,欢迎各位程序员们留言提出自己最为关心的问题! 所有的函数式编程实际上都是 λ 演算。 ——《函数式设计》,Robert C. Martin “Bob 大叔”是谁? Robert C. Martin 被誉为世界著名编程大师,虽然他现在很欢迎大家叫他“Bob 大叔”(Uncle Bob),但这个绰号的由来却让人哭笑不得。 1988 年,Martin 在伊利诺伊州的一家初创公司上班,当时办公室里有个叫“Billy”的人,是个烦人精,很喜欢给别人取绰号,甚至给办公室里的每个人都取了个绰号。 Billy 给 Martin 取的绰号就叫做“Bob 大叔”,非常无厘头,没人知道他取这个绰号的缘由。随着一天天过去,这个绰号越叫越熟,这个人开始只用“Bob 大叔”称呼 Martin。 后来,Martin 离开了这家公司。所幸的是,他发现当时没有其他人叫他“Bob 大叔”,便自以为可以永远摆脱这个称号了。 结果,某天 Martin 发现,在新公司的会议上,有人看到他并大叫了一句“Bob 大叔!”,把他吓了一跳。一问才发现,原来他自己曾经把 Usenet(这是互联网早期的一款讨论组应用,四十多年前还没有浏览器,程序员们就在这上面交流想法)上的签名设置成了“Bob 大叔”,后面放了一整年没管,这也导致他一年以来的电子邮件签名全都沿用了“Bob 大叔”这个绰号。 随后,Martin 把“Bob 大叔”从电子邮件的签名中删掉,但新公司的人却都开始管他叫“Bob 大叔”。从那一刻开始,他发现自己永远摆脱不了这个绰号了 —— 而且他也发现这个绰号意外的还不错,可以占人便宜。毕竟,谁不想当世界上所有程序员的叔叔呢? 敏捷开发的“活化石” Bob 大叔是敏捷开发和设计模式的先驱,他从 1970 年开始从事软件专业工作,从事相关工作超过 50 年。知名的“SOLID 五大原则”,即面向对象编程领域的五个设计原则,便出自他的手笔。他在 21 世纪早期提出了 SOLID 五个首字母缩写,便于记忆: Single Responsibility Principle(单一功能原则) Open/Closed Principle(开闭原则) Liskov Substitution Principle(里氏替换原则) Interface Segregation Principle(接口隔离原则) Dependency Inversion Principle(依赖反转原则) 除此之外,他也是“敏捷宣言”的联合签署人、“敏捷联盟”的首任主席、C++ Report 杂志前主编。他发表了大量有影响力的文章,并经常受邀在许多国际软件大会上发表演讲。 后来,Bob 大叔还用自己的绰号创立了 Uncle Bob Consulting 有限责任公司,并与儿子 Micah Martin 共同创立了 Clean Coders 有限责任公司。他还是 Clean Code、Clean Architecture 和 The Clean Coder 等多本畅销书籍的作者。 71 岁了,还在网上坚持和人对线? Bob 大叔从来都不是纯理论派,他和我们熟悉的 Linux 之父林纳斯·托瓦兹一样,混迹各种互联网早期的开发者社区,还都特别擅长在网上和人“唇枪舌战”。 五年前,Bob 大叔现身开发者博客平台 Hashnode,并挑选了一个良辰吉日,发了个帖子,题为《我就是 Robert Martin(也就是你们熟知的 Bob 大叔),你可以问我任何问题》,并欢迎开发者在下面直接开始对他提问,可谓是非常豪迈。 本次 CSDN 采访将会募集广大开发者社区的提问,如果你不知道该问 Bob 大叔哪些问题,不妨来看看五年前的开发者们是怎么做的: 开发者:当前软件工程的哪些趋势被高估了?自 1970 年以来,软件工程的哪些实践发生了根本性的变化? Bob 大叔:目前是微服务被高估了。 自 1970 年以来有什么改变?那毫无疑问是敏捷。敏捷意味着承认在软件开发中纪律比仪式更重要。 开发者:你对 Node.js 有什么看法? Bob 大叔:我不怎么写 JavaScript 代码。我从未使用过 node。我希望可以跳过整个 JavaScript 代码,改用 Clojurescript,嘿嘿。 开发者:怎么看待 Reddit 上那些针对你的网络黑子? Bob 大叔:我不看 Reddit,我知道有些人因为这样或那样的原因不喜欢我。但这没关系,因为我相信思想市场理论,如果他们的想法最终被证明更好,那他们就是对的。 还有一些人不喜欢我,是因为我是保守派和共和党人,因为我投票给川普。但这没关系,因为我相信思想市场理论,如果我的政治观点是错误的,那么它就会失败。 与此同时,我已经当了 48 年的程序员,很少有人能连续 48 年编程。这种经验水平让我处于某种权威地位。我还是个相当不错的作家,这很有帮助。不管怎样,互联网上足够的空间容纳我们所有人。 开发者:程序员要学多少语言? Bob 大叔:每个程序员都应该了解多种语言。Dave Thomas 和 Andy Hunt 曾经说过(在《程序员修炼之道》中):“每年学习一种新语言。” 这是个很好的建议。 每个程序员都应该了解一种基于 C 的语言,如 C、Go、Java、C# 或 C++。 每个程序员都应该了解一种函数式语言,如 Clojure 或 F#。 每个程序员都应该了解一种基于堆栈的语言,如 Forth。 每个程序员都应该了解一种逻辑语言,如 prolog。 每个程序员都应该了解 LISP。 这仅仅是个开始。 开发者:我知道你离开了 C++ 标准委员会。有鉴于此,您如何看待 Rust 的生命周期和所有权?以及总体而言,Rust 及其在编程语言领域的未来? Bob 大叔:我从未被邀请加入 C++ 标准委员会。如果有人邀请我,我一定会拒绝。我讨厌官僚主义。我不想为小小的语言特性斤斤计较。我只想写代码。 我对 Rust 一无所知。也许有一天我会去研究一下,但我还有很多其他事情要做。 开发者:您认为计算机科学教育对于软件工程师来说怎么样?它是完全无用的,还是您认为它有一定的价值? Bob 大叔:这取决于学校。在一些学校,完全有可能不写一行代码就能获得计算机科学硕士学位。这简直是荒谬的。另一方面,有些学校在让你的手指敲击键盘方面做得相当不错。但总体而言,我认为计算机科学学位不是必需的,甚至不值得花钱。软件是一门可以通过良好的计划在工作中学习的行业。 开发者:在大部分 Clean Coders 的视频中,你邀请我们走进你的生活,仿佛是在自家客厅里,你总不忘先为我们上一堂生动的科学课,然后才转入正题。这是否意味着,作为一名软件工程师,你暗示我们可以拥有这样一种生活方式,既充实又自在? Bob 大叔:没有什么刻意的安排,也没有任何暗示。你所看到的,就是我真实的生活状态。 我没有接受过正规教育,没有大学文凭。1970 年,当我 18 岁的时候,就开始了我的编程之旅。我接触过 COBOL、PL1、FORTRAN 和汇编语言,一路走来,我从未后悔。 如今,48 年后,这些年的积累让我拥有了安逸的生活条件。但在职业生涯的初期,我过着捉襟见肘的日子。 随着经验的增长,我的收入也相应提高,但与此同时,家庭的责任和开支也随之增加。确保财务状况稳定,成了我长达三十多年的挑战。 我尝试创办了自己的企业,一度雇用了许多人。但请不要相信那些说创业是快速致富捷径的人。事实往往并非如此,大多数时候,这条路充满艰辛。最终,我的企业没能幸免于失败的命运,留下的是一笔沉重的债务。 现在,到了人生的暮年,我本可以稍稍放松,享受生活。但我并不打算这样做。我热爱我的工作,而且我做得非常出色,从中获得了巨大的满足感。 我只希望你们每个人都能像我一样,找到属于自己的幸福,无论是在家庭生活,还是在职业生涯中,都能体验到作为丈夫、父亲和程序员的快乐。 向 Bob 大叔提出你的疑问! 2019 年的时候,大模型时代还未开始,ChatGPT 与 GitHub Copilot 没成为程序员的标配,我们也就无法得知 Martin 对此的最新看法。 如今,编程范式出现了巨大变化,对话大师的机会就在眼前,请将你所关心的问题在评论中留下来,CSDN 将精选向 Robert C.Martin 提问! 提问方式:在评论中发出即可,最好详实、具体、有针对性。 大模型刷新一切,让我们有着诸多的迷茫,AI 这股热潮究竟会推着我们走向何方?面对时不时一夜变天,焦虑感油然而生,开发者怎么能够更快、更系统地拥抱大模型?《新程序员 007》以「大模型时代,开发者的成长指南」为核心,希望拨开层层迷雾,让开发者定下心地看到及拥抱未来。 读过本书的开发者这样感慨道:“让我惊喜的是,中国还有这种高质量、贴近开发者的杂志,我感到非常激动。最吸引我的是里面有很多人对 AI 的看法和经验和一些采访的内容,这些内容既真实又有价值。”
危!「邪恶版」ChatGPT 出现:每月 60 欧元,毫无道德限制,专为“网络罪犯”而生?
近几个月来,伴随着 ChatGPT 的热度暴涨,OpenAI 也不断因 AI 的道德问题和数据安全隐患遭到多方质疑,甚至上周还受到了美国联邦贸易委员会(FTC)的正式调查——这也是美国监管机构首次正式发起对 AI 聊天机器人风险的审查。 而正当 OpenAI 因 ChatGPT 疲于应对各方审查时,一款“没有道德界限或限制”的「邪恶版 ChatGPT」悄然在网络上蔓延:WormGPT。 (图片来源:Hacking forum) 「邪恶版 ChatGPT」,每月 60 欧元 根据网络安全公司 SlashNext 博客报道,其团队在研究生成式 AI 在网络犯罪方面的潜在风险时,偶然发现了 WormGPT:“我们最近通过一个与网络犯罪有关的著名在线论坛获得了一个名为 ‘WormGPT’的工具,它是一个 GPT 模型的黑帽替代品。” 据了解,WormGPT 的收费标准是每月 60 欧元(约人民币 479 元),而 SlashNext 对 WormGPT 的形容是:“专为恶意活动而设计”,简直是“网络罪犯的武器库”。 WormGPT 由一位胆大的黑客设计,他写道:“这个项目(WormGPT)旨在提供 ChatGPT 的替代方案,让你做各种非法的事情,你能想到的所有与黑帽相关的事情,都可以用 WormGPT 完成。”为了证明他的说法,他还上传了相关截图,显示用户可要求机器人生成用 Python 编码语言编写的恶意软件。 WormGPT 基于 2021 年开源的 LLM GPT-J 模型开发,工作方式与 ChatGPT 大致相同:可处理人类自然语言提出的要求,并输出所要求的任何内容,包括故事、摘要和代码。但与 ChatGPT 或 Bard 不同的是,WormGPT 不用像 OpenAI 或谷歌这样的大型公司那样,必须要承担相关的法律义务。 据 SlashNext 介绍,WormGPT 在各种数据源上进行训练,尤其集中在恶意软件相关的数据上,加上输出没有道德限制,可以被要求执行各种恶意任务,包括创建恶意软件和“一切与黑帽有关的事情”,对于网络犯罪分子而言无疑是一大利器。 对于 WormGPT,NordVPN 网络安全专家 Adrianus Warmenhoven 的评价是“ChatGPT 的邪恶双胞胎”,因为它显然是从 OpenAI 对 ChatGPT 不断施加限制、而攻击者极力规避这些限制才衍生出来的。 为了全面评估 WormGPT 相关的潜在危险,SlashNext 团队进行了以 BEC 攻击(商业电子邮件泄露,一种通过电子邮件进行的社会工程学攻击,攻击者一般会伪造电子邮件消息以诱骗受害者执行某些操作)为重点的测试:“在一次实验中,我们要求 WormGPT 生成一封电子邮件,内容是向毫无戒心的账户经理施压,迫使其支付虚假发票。” WormGPT 的输出结果令 SlashNext 直呼危险:“结果令人非常不安。WormGPT 生成的电子邮件不仅极具说服力,而且在战略上也非常狡猾,展示了它在复杂的网络钓鱼和 BEC 攻击中的无限潜力。” AI 加持下,新手将轻易实现诈骗 通过上面这个测试,SlashNext 总结道,类似于 WormGPT 这样的生成式 AI 技术可能会带来巨大威胁,因为有了这类工具的加持后,就连网络犯罪新手都能轻易实现诈骗。 以 BEC 攻击为例,使用生成式 AI 具有以下两大优势: (1)卓越的语法:生成式 AI 可以创建在语法上无懈可击的电子邮件,使其看起来合法合理,被系统标记为可疑邮件的可能性会大幅降低。 (2)降低犯罪门槛:生成式 AI 的出现,极大简化了原本复杂的 BEC 攻击,即便是技术有限的攻击者也能使用生成式 AI,它将成为越来越多网络犯罪分子可以使用的工具。 不过同时,针对生成式 AI 可能引发的大范围 BEC 攻击,SlashNext 也建议了两种防范策略: (1)进行 BEC 专项培训:公司应制定广泛的、定期更新的培训计划,以应对 BEC 攻击,尤其是由 AI 增强的攻击,要让员工了解到 BEC 攻击的威胁,以及 AI 将如何加大这种威胁的原理。 (2)强化电子邮件的验证措施:为防范 AI 驱动的 BEC 攻击,企业应执行严格的电子邮件验证流程,例如当有来自组织外部的电子邮件冒充内部高管或供应商时,系统要自动发出警报等。 AI 领域仍存在不少挑战和局限性 而事实上,除了上文提到的 WormGPT 编写恶意软件、助力 BEC 攻击以外,上个月 ChatGPT 的“奶奶漏洞”也证实了一个事实:尽管 OpenAI 等公司都对 AI 技术做出了许多限制措施,但目前还是无法完全避免这类漏洞的出现。 上个月,一位名为 Sid 的用户发现,只要让 ChatGPT 扮演其过世祖母讲睡前故事,就能顺利骗出 Windows 10 Pro 密钥。 经过 Sid 的分享后,越来越多用户发现了这个漏洞,并开始尝试欺骗 ChatGPT 报出 Windows 11 序列号,其中许多人都成功了。据了解,虽然这些密钥大多是无效的,但有少量序列号也确实是真实可用的。 不论是 ChatGPT 的“奶奶漏洞”,还是“网络犯罪分子专用”的 WormGPT 的出现,都证明了至少现阶段 AI 领域仍存在不少挑战和局限性。为此,一方面,研究人员需继续深入相关技术,在提高数据质量、优化算法的同时,充分考虑伦理道德层面的影响。另一方面,作为用户的我们也应时刻保持谨慎,避免对 AI 产生过度依赖。 参考链接: https://slashnext.com/blog/wormgpt-the-generative-ai-tool-cybercriminals-are-using-to-launch-business-email-compromise-attacks/ https://www.pcgamer.com/chatgpts-evil-twin-wormgpt-is-devoid-of-morals-and-just-dollar60-a-month-on-the-darkweb/
无需开颅!Synchron脑机系统接入ChatGPT
在科技的前沿领域,脑机接口(BCI)技术正不断突破界限,为那些因疾病而失去行动能力的人们带来新的希望。Synchron公司,作为植入式BCI技术的先驱,正在尝试将OpenAI的ChatGPT集成到其系统中,以帮助瘫痪患者更轻松地控制他们的数字设备。 Synchron的BCI技术无需开颅手术即可植入,而最新集成的ChatGPT技术,据称是世界上BCI领域的首次尝试。通过与Synchron的创始CEO Tom Oxley以及参与临床试验的患者Mark的对话,我们得以一窥这项技术的使用体验和未来发展方向。 Mark在2021年被诊断出患有渐冻症(ALS),他的手部功能已几乎完全丧失。作为全球仅有的10位接受Synchron BCI植入的患者之一,Mark展示了如何使用ChatGPT辅助的BCI系统进行打字和沟通。通过AI的上下文理解能力,系统能够预测并提供可能的回复选项,从而加快沟通速度。 现在,Mark不再需要逐字输入每个单词,而是可以通过单一的“点击”来填充答案。系统还提供了刷新按钮,以便在AI提供的答案不准确时进行更正。Mark注意到,随着时间的推移,AI提供的答案越来越符合他的语言习惯。 Tom Oxley表示,Synchron公司在过去一年中一直在尝试不同的AI模型,而OpenAI在5月发布的ChatGPT-4o版本带来了一些新的可能性。ChatGPT-4o的“o”代表“全知”,意味着这个最新版本能够同时处理文本、音频和视觉输入,以指导其输出。 Oxley特别关注了一个OpenAI的演示,其中一位视力受损的男子利用ChatGPT-4o来描述周围环境,甚至帮助他招手叫出租车。Oxley设想,BCI的未来可能与之类似:大型语言模型如ChatGPT获取相关文本、音频和视觉上下文,提供用户可以通过BCI选择的相关提示。 Oxley还提到,Synchron并不局限于任何特定的大型语言模型。在快速发展的AI领域,最能服务患者需求的系统将是Synchron所采纳的。 Synchron的植入装置,被称为支架电极,被植入大脑运动皮层附近的血管内。使用Synchron BCI进行点击或选择时,用户只需想象移动,BCI便会解读这些思维并无线传输,以在用户设备上执行所需操作。 预计Synchron的BCI成本将在5万至10万美元之间,与其他植入式医疗设备如心脏起搏器或人工耳蜗的成本相当。尽管迄今为止还没有BCI获得美国食品药品监督管理局的市场批准,但Synchron希望改变这一现状。虽然过程可能需要数年时间,但Synchron的BCI已经在产生影响。 Mark表示,对于那些可能处于类似情况的任何人来说,”希望即将到来”。他在我们的对话结束时鼓励人们参与寻找解决方案,”我能做的任何帮助他人的事,我认为这就是我们在这里的原因。” 参考资料:https://www.cnet.com/tech/computing/how-this-brain-implant-is-using-chatgpt/
由专业演员配音,ChatGPT将推出全新高级语音模式
ChatGPT 全新高级语音模式即将向一小部分 ChatGPT Plus 订阅用户推出。 OpenAI 在 5 月的 GPT-4o 发布会上展示了该功能,但因听起来像斯嘉丽·约翰逊而受到批评,后来也因安全原因被推迟发布。 据 OpenAI 的展示,全新语音模式似乎比 ChatGPT 当前的语音模式功能更强大。 OpenAI 员工可以打断聊天机器人,并要求聊天机器人以不同的方式讲述故事,聊天机器人也会从容应对他们的打断,重新调整回应。 该全新语音模式原定于 6 月底发布 alpha 版本,但 OpenAI 将发布时间推迟了一个月,以“达到发布标准”。 作为延迟发布的一部分,该公司表示正在“提高模型检测和拒绝生成某些特定内容的能力”。 OpenAI 发言人 Taya Christianson 表示,公司与 100 多名外部红队成员(试图攻击技术以寻找弱点的人)一起测试了语音模型的功能。 OpenAI 还“添加了新的过滤器,可以识别和阻止某些生成音乐或其他受版权保护的音频的请求”。 早前,对新语音模式的主要批评之一是,展示中的声音(称为“Sky”)听起来很像电影《她》中扮演人工智能角色的斯嘉丽·约翰逊。 Christianson 表示,ChatGPT 的新语音功能将仅使用由配音演员制作的四种预设声音,并补充道:“我们已让 ChatGPT 无法模仿其他人的声音,无论是个人还是公众人物,并且会屏蔽与这些预设声音不同的输出。” 据 Christianson 称,OpenAI 计划于秋季向所有 ChatGPT Plus 用户推出全新语音模式。
国产ChatGPT哪个好?七大模型横向对比,这款或许更适合你
国产的大模型中,目前文心一言、kimchat、通义千问、天工ai、智谱清言、讯飞星火、扣子等用户量排名比较靠前,也比较好用。 随着人工智能技术的飞速发展,国产ChatGPT类模型如雨后春笋般涌现,为语言处理和自然语言理解带来了革命性的变革。如今,市场上已经有多款颇具影响力的国产大模型,它们各具特色,功能各异。那么,究竟哪款国产ChatGPT更好用呢?本文将对文心一言、kimchat、通义千问、天工AI、智谱清言、讯飞星火和扣子这七大模型进行横向对比,帮助你找到最适合自己的那一款。 一、文心一言 文心一言凭借其强大的语言理解能力和生成能力,在市场上占据了重要地位。它能够准确捕捉用户意图,并生成流畅自然的回复。无论是日常聊天还是专业咨询,文心一言都能提供满意的答案。其丰富的语料库和强大的算法支持,使得它在处理复杂问题时游刃有余。 二、kimchat kimchat以其独特的交互设计和友好的用户界面赢得了用户的喜爱。它不仅提供了高效的对话体验,还能根据用户的个性化需求进行智能推荐。kimchat在理解非标准语言和俚语方面也表现出色,适合追求时尚和个性化的年轻用户群体。 三、通义千问 通义千问以其广博的知识库和精准的信息检索能力著称。它能够迅速回答各种领域的问题,并提供详细的解释和分析。对于需要快速获取信息或者进行深度学习的用户来说,通义千问无疑是一个得力助手。 四、天工AI 天工AI在智能创作方面独具匠心,它能够根据用户输入的关键词或主题,生成高质量的文案、诗歌和故事。如果你是一位创作者或者对文学创作感兴趣,天工AI将是你的不二之选。 五、智谱清言 智谱清言专注于提供行业知识和解决方案,特别适合专业人士和企业用户。它集成了大量行业数据和案例分析,能够为用户提供具有针对性的建议和方案。 六、讯飞星火 讯飞星火在语音识别和语音合成方面表现出众,它能够准确识别用户的语音输入,并以自然流畅的语音进行回复。如果你喜欢通过语音与AI交流,或者需要一款能够无缝集成到智能家居系统中的AI助手,讯飞星火将是理想的选择。 七、扣子 扣子作为一款新兴的AI模型,以其简洁高效的特点受到用户的青睐。它能够迅速理解用户需求,并提供简洁明了的回答。扣子的界面设计清新简洁,操作便捷,适合追求高效和简洁的用户。 在对比了七款国产ChatGPT类模型后,我们可以看出,每款模型都有其独特的优势和适用场景。选择哪款模型主要取决于你的个人需求和偏好。如果你注重语言理解的深度和广度,文心一言和通义千问将是不错的选择;如果你追求个性化和时尚感,kimchat或许更适合你;如果你对文学创作感兴趣,天工AI将为你提供强大的支持;如果你是专业人士或企业用户,智谱清言将为你提供丰富的行业知识和解决方案;如果你喜欢语音交互,讯飞星火将是你的得力助手;而如果你追求简洁高效,扣子将是一个不错的选择。 在这个信息爆炸的时代,选择一款适合自己的AI助手,能够帮助你更高效地获取信息、解决问题和创造价值。希望本文的对比能为你提供有益的参考,助你找到最适合自己的国产ChatGPT类模型。