这两天,图灵奖得主Yann LeCun心态有些崩了。
自从ChatGPT大火之后,微软凭着OpenAI腰板挺得很直。
被啪啪打脸的谷歌,也不说什么「声誉风险」了。
所有旗下的语言模型,无论是LaMDA,还是DeepMind的Sparrow,以及Apprentice Bard,是能加快的加快,能上架的上架。然后再狂投近4亿美元给Anthropic,想赶快扶出自己的OpenAI。(微软有的我也要)
然而,有一个人看着微软谷歌各领风骚,却只能急得原地跳脚。
这个人就是Meta的首席AI科学家——Yann LeCun。
他在推特中十分意难平:「ChatGPT满嘴胡诌,你们却对它如此宽容,但我家的Galactica,才出来三天,就被你们骂到下线了。」
是谁酸到了,我不说
作为深度学习三巨头之一、图灵奖得主,LeCun的一举一动,都十分引人注意。
1月27日,在Zoom的媒体和高管小型聚会上,LeCun对ChatGPT给出了一段令人惊讶的评价:「就底层技术而言,ChatGPT并不是多么了不得的创新。虽然在公众眼中,它是革命性的,但是我们知道,它就是一个组合得很好的产品,仅此而已。」
「除了谷歌和Meta之外,还有六家初创公司,基本上都拥有非常相似的技术。」
另外他还说,ChatGPT用的Transformer架构是谷歌提出的,而它用的自监督方式,正是他自己提倡的,那时OpenAI还没诞生呢。
此番言论一出,公众哗然。Open AI的CEO Sam Altman疑似因为这句话直接取关了LeCun。
随后,LeCun继续舌战众位推友。
1月28日,LeCun发推称,「大型语言模型并没有物理直觉,它们是基于文本训练的。如果它们能从庞大的联想记忆中检索到类似问题的答案,他们可能会答对物理直觉问题。但它们的回答,也可能是完全错误的。」
2月4日,LeCun再次发推,更加直白地表示「在通往人类级别AI的道路上,大型语言模型就是一条歪路」。
他这话一说,网友们可high了,纷纷冲到评论区留言。
LeCun随后补充说:「依靠自动回归和响应预测下一个单词的LLM是条歪路,因为它们既不能计划也不能推理。」
「但是SSL预训练的Transformer是解决方案,因为它所处的现实系统有推理、计划和学习的能力。」
LeCun举了个有趣的例子:自己在参加播客节目时,展示过ChatGPT的回答,它看上去很有道理,却错得离谱。然而主持人在读完ChatGPT的回答后,却没有第一时间发现它错了。
LeCun对此解释道:「我们的思维方式和对世界的感知让我们能预想即将发生的事物。这是我们获得常识的基础,而LLM并没有这种能力。」
他再次发推称:「在我们做出人类级别的AI之前,我们需要先做出猫猫/狗狗级别的AI。而现在我们甚至连这都做不到。我们缺失了十分重要的东西。要知道,连一只宠物猫都比任何大型语言模型有更多的常识,以及对世界的理解。」
在留言区,有网友毫不客气地怼起LeCun:「你说得不对吧,本人亲测,Galactica的错误率接近100%,而ChatGPT的错误率差不多在15%左右。 」
对于网友的痛击,LeCun再次发推表明态度:「我从来没说大型语言模型没用,其实我们Meta也推出过Galactica模型,只是它不像ChatGPT那么好命罢了。ChatGPT满嘴胡诌,你们却对它如此宽容,但我家的Glacatica,才出来三天,就被你们骂到下线了。」
对此,评论区有网友讽刺道:「你可真棒棒啊。不如回实验室去,把你说的东西给做出来。」
LeCun回复:「今天可是周日,推特大辩论是我周末最爱的消遣了。」
自家的模型只活了3天
LeCun如此意难平,可以理解。
去年11月中旬,Meta的FAIR实验室曾提出一个Galactica模型,它可以生成论文、生成百科词条、回答问题、完成化学公式和蛋白质序列的多模态任务等等。
Galactica生成的论文
LeCun也很开心地发推盛赞,称这是一个基于学术文献训练出的模型,给它一段话,它就能生成结构完整的论文。
然而,由于Galactica满嘴跑火车,它才上线短短三天,就被网友喷到下线。
LeCun转发了Papers with Code的通知,像个「大怨种」一样说道:「现在我们再也不能和Galactica一起愉快地玩耍了,你们开心了?」
虽然Galactica的demo才上线几天,但当时的用户都感觉如临大敌。
有网友警示道:想想这个「写论文」神器会被学生们拿来做什么吧。
有网友表示,「Galactica这个模型的回答错漏百出,充满偏见,可是它的语气却十分自信权威。这太恐怖了。」
马库斯也表示,这种大型语言模型可能会被学生用来愚弄老师,非常令人担心。
这熟悉的配方,熟悉的味道,真是令人感慨万千:曾经Galactica引起的恐慌和质疑,不正是ChatGPT后来所经历吗?
看着这段历史的重演,却有着截然不同的结局,LeCun这么酸,确实不能说是毫无来由。
那为什么ChatGPT就能在质疑的声浪中人气愈发高涨,Galactica却只能惨兮兮地被骂到下线呢?
首先,Galactica由Meta提出,大公司确实比OpenAI这样的小初创公司,面临更多的「声誉风险」。
另外,OpenAI的产品定位策略十分聪明,从ChatGTP的名字就可以看出,它主打的概念是聊天。
你可以和它聊知识、聊论文,但既然是「chat」,自然可以放飞一些,谁规定聊天一定要聊「准确」「严谨」的东西呢?
但Glactica则不同,它的官方定义是:「这是一个用于科研的模型。」「这是一个受过人类科学知识训练的人工智能。您可以将它用作一个新界面,来访问和操作我们对宇宙的知识。」
这当然就给自己埋了大雷了。
虽然从技术层面来看,ChatGPT的确没有太多创新,但是从产品运营的角度,OpenAI这一招,打得十分出色。
LLM为什么会满嘴胡话?
所以,大语言模型为什么会满嘴胡话呢?
在LeCun点赞的一篇文章中,作者做出了解释:「我曾尝试用ChatGPT来帮忙写博客文章,但都以失败告终。原因很简单:ChatGPT经常会整出很多虚假的『事实』」。
自然语言不等于知识
要知道,LLM是为了在与其他人类的对话中听起来像一个人,而且它们也很好地实现了这个目标。但问题是,听起来自然与评估信息的准确性是两种完全不同的事情。
那么,这个问题该如何解决呢?
举个例子,我们可以借助已经对物理学理解进行了编码的机器——物理学引擎:
- 修改LLM,使它能识别出自己被问到的是一个关于物理的问题
- 将问题转换为一个物理场景
- 用一个物理引擎来模拟这个场景
- 用文字描述该场景的输出
而对于「假论文问题」,我们同样也可以采用类似的修正。
也就是让ChatGPT认识到它被问到了关于科学论文的问题,或者它正在写关于论文的东西,并强迫它在继续之前查阅一个可信的数据库。
但是请注意,如果真的这样做了,那就意味着你把一种特定的额外「思维」嫁接到了LLM身上。而且还必须考虑到一大堆特殊的情况。这时,人类工程师知道真相来自哪里,但LLM却不知道。
此外,随着工程师们把越来越多的这样的修复方法嫁接在一起,越来越明显的是,LLM不是一种人工通用智能的形式。
不管人类的智能是什么,我们都知道它不仅仅是能说会道的能力。
人类语言的多种用途
为什么人类要互相交谈,或为对方写下东西?
其中一个目的是直接传达事实信息,比如「我在商店」、「它没有插电」等,但这远不是我们使用语言的唯一原因:
- 劝说、请求、命令、指示
- 传达情感
- 娱乐他人(包括小说、笑话等)、自娱自乐
- 欺骗(撒谎)
- 建立关系(与朋友建立联系,调情)
……
看得出来,人类交流的目的是非常多样化的。而且,我们通常也不会在写作的内容中表明它的目的是什么,作者和读者也对这些内容的作用有着不同的认知。
如果ChatGPT想要成为一个值得信赖的事实传播者,它可能要学会如何区分它所训练的人类写作的各种目的。
也就是说,它将不得不学会不认真对待废话,区分说服和宣传与客观分析,独立判断一个来源的可信度与它的受欢迎程度,等等。
即使对于人类,这也是一个非常困难的技巧。有研究表明,虚假信息在推特上的传播速度是准确信息的数倍——往往更具有煽动性、娱乐性或看起来很新颖。
那么问题来了,为什么生成式人工智能在计算机代码上表现很好?为什么编写功能代码的准确性不能转化为传达事实的准确性?
对此可能的回答是,计算机代码是功能性的,而不是交流性的。以正确的语法编写某段代码会自动执行一些任务,而编写一个语法正确的句子却不一定能达到任何目的。
此外,我们很容易将计算机代码的训练语料库限制在「好」的代码上,也就是完美地执行其预期目的的代码。相比之下,要制作一个成功实现其目的的文本语料库几乎是不可能的。
因此,为了将自己训练成可信赖的事实传播者,LLLM必须完成一项比训练自己提出功能性计算机代码更难的任务。
虽然不知道对于工程师来说,建立一个能够区分事实和废话的LLM有多难,但这即便对于人类来说,都是一项困难的任务。
马库斯:世纪大和解
LeCun的一大串言论,让大家纷纷疑惑:这不是马库斯会说的话吗?
热(chi)情(gua)的网友纷纷@马库斯,期待他对此事的锐评。
苦GPT久矣的马库斯自然喜出望外,立刻转发LeCun的帖子,还评论道「100昏」。
马库斯还在自己的博客上发文,回顾自己与LeCun的「爱恨情仇」。
马库斯称,自己与LeCun本是多年老友,因为嘴了Galactica几句使得两人交恶。
实际上,马库斯与LeCun的嘴仗打了好几年了,可不是光只因为Galactica下线的事情。
与另外两位图灵奖得主Bengio和Hinton的相对低调不同,近几年,LeCun在社交媒体上的活跃在AI圈子里也是出了名的。不少工作在挂了Arxiv之后就第一时间在推特上宣传一波。
同样高调的马库斯也是一向视推特为自己的主场,当LeCun的宣传和马库斯的看法产生矛盾时,双方都不打算憋着。
在社交媒体上,两人可以说达到了有架必吵的地步,彼此间话讲的毫不客气,见面说不定都能直接掐起来那种。
而且要说梁子,2019年LeCun与Hinton和Bengio一起获得图灵奖后,有一张合影,原本马库斯站在LeCun的边上,但在LeCun分享的照片中,Marcus被无情地剪掉了。
然而,ChatGPT的诞生改变了一切。
ChatGPT爆火,Galactica三天后便落魄下架。在LeCun对LLM疯狂输出时,马库斯自然乐于看到此景。
正所谓敌人的敌人就是朋友,不论LeCun的言论是自家产品失败后的大彻大悟,还是对竞品顶流现状的眼红,马库斯都愿意添一把火。
马库斯认为,他和LeCun达成一致的,不仅是关于LLM的炒作和局限性。他们都认为Cicero应该得到更多的关注。
最后,马库斯@了懂的都懂的那个人,并说「该给家人们福利了」。
可以说,LeCun在推特上掀起的骂战,不仅让马库斯的反GPT军团多了一员猛将,还给了两人握手言和的契机。
这么看来,或许马库斯才是最终赢家。
以上是ChatGPT爆火,LeCun心态崩了!称大语言模型是邪路,Meta模型3天惨遭下线的详细内容。更多信息请关注PHP中文网其他相关文章!

由于AI的快速整合而加剧了工作场所的迅速危机危机,要求战略转变以外的增量调整。 WTI的调查结果强调了这一点:68%的员工在工作量上挣扎,导致BUR

约翰·塞尔(John Searle)的中国房间论点:对AI理解的挑战 Searle的思想实验直接质疑人工智能是否可以真正理解语言或具有真正意识。 想象一个人,对下巴一无所知

与西方同行相比,中国的科技巨头在AI开发方面的课程不同。 他们不专注于技术基准和API集成,而是优先考虑“屏幕感知” AI助手 - AI T

MCP:赋能AI系统访问外部工具 模型上下文协议(MCP)让AI应用能够通过标准化接口与外部工具和数据源交互。由Anthropic开发并得到主要AI提供商的支持,MCP允许语言模型和智能体发现可用工具并使用合适的参数调用它们。然而,实施MCP服务器存在一些挑战,包括环境冲突、安全漏洞以及跨平台行为不一致。 Forbes文章《Anthropic的模型上下文协议是AI智能体发展的一大步》作者:Janakiram MSVDocker通过容器化解决了这些问题。基于Docker Hub基础设施构建的Doc

有远见的企业家采用的六种策略,他们利用尖端技术和精明的商业敏锐度来创造高利润的可扩展公司,同时保持控制权。本指南是针对有抱负的企业家的,旨在建立一个

Google Photos的新型Ultra HDR工具:改变图像增强的游戏规则 Google Photos推出了一个功能强大的Ultra HDR转换工具,将标准照片转换为充满活力的高动态范围图像。这种增强功能受益于摄影师

技术架构解决了新兴的身份验证挑战 代理身份集线器解决了许多组织仅在开始AI代理实施后发现的问题,即传统身份验证方法不是为机器设计的

(注意:Google是我公司的咨询客户,Moor Insights&Strateging。) AI:从实验到企业基金会 Google Cloud Next 2025展示了AI从实验功能到企业技术的核心组成部分的演变,


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

VSCode Windows 64位 下载
微软推出的免费、功能强大的一款IDE编辑器

Atom编辑器mac版下载
最流行的的开源编辑器

EditPlus 中文破解版
体积小,语法高亮,不支持代码提示功能

Dreamweaver CS6
视觉化网页开发工具

SublimeText3 英文版
推荐:为Win版本,支持代码提示!