上个月,马斯克疯狂呼吁叫停超级AI研发6个月。
还没等多久,老马就坐不住了,直接官宣推出一个名为TruthGPT的AI平台。
马斯克曾表示,TruthGPT将是一个「最大的求真人工智能」,它将试图理解宇宙的本质。
他强调,一个关心理解宇宙的人工智能不太可能灭绝人类,因为我们是宇宙中有趣的一部分。
然而,「幻觉」,到现在还没有哪个语言模型能够搞定。
最近,OpenAI联合创始人便解释为什么TruthGPT的远大理想的实现是如此地困难。
TruthGPT理想是泡沫?
马斯克的X.AI想要建立的TruthGPT,是一种诚实的语言模型。
这么做,直接将矛头对准ChatGPT。
因为,此前,像ChatGPT这样的AI系统经常产生错误输出等经典幻觉案例,甚至支持某些政治信仰的报道。
虽然ChatGPT可以让用户更多控制语言模型去解决问题,但「幻觉」仍然是OpenAI、谷歌以及未来马斯克的人工智能公司必须处理的核心问题。
OpenAI联合创始人兼研究员John Schulman在他的演讲「RL和Truthfulness – Towards TruthGPT」中讨论了这些挑战以及如何应对这些挑战。
为啥有「幻觉」?
根据Schulman的说法,幻觉大致可以分为两种类型:
1. 「模式完成行为」,即语言模型无法表达自己的不确定性,无法质疑提示中的前提,或者继续之前犯的错误。
2. 模型猜测错误。
由于语言模型代表一种知识图谱,其中包含来自其自身网络中训练数据的事实,因此微调可以理解为学习一个函数,该函数在该知识图谱上运行并输出token预测。
例如,微调数据集可能包含「星球大战的类型是什么?」这个问题,以及答案「科幻」。
如果这些信息已经在原始训练数据中,即它是知识图谱的一部分,那么模型不会学习新信息,而是学习一种行为——输出正确答案。这种微调也被称为「行为克隆」。
但问题是,如果问题是关于「Han Solo的衍生电影的名字是什么」出现在微调数据集中。
但如果答案「Solo」不是原始训练数据集的一部分(也不是知识图谱的一部分),即使网络不知道答案,它也会学习回答。
使用实际上正确但不在知识图谱中的答案进行微调,从而教会网络编造答案——即产生「幻觉」。相反,用不正确的答案进行训练会导致网络隐瞒信息。
因此,理想情况下,行为克隆应始终基于网络知识,但创建或评估数据集的人类工作者来说,通常不知道这种知识,例如指令调优。
根据Schulman的说法,当其他模型创建微调数据集时也存在这个问题,就像羊驼公式的情况一样。
他预测,具有较小知识图谱的较小网络,不仅会学会使用ChatGPT的输出给出答案和遵循指令,而且学会更频繁地产生幻觉。
OpenAI如何打击幻觉?
首先,对于简单的问题来说,语言模型大部分情况下能预测自己是否知道答案,还能表达不确定性。
因此,Schulman表示,微调数据集的时候,必须得让模型学会怎么表达不确定、怎么应对前提被更改的情况,以及错误被承认的情况。
要把这些情况的实例喂给模型,让它们学习。
但是模型在时机方面还是欠练,也就是说,它们并不知道该何时执行这些操作。
Schulman表示,这就是强化学习(RL)该出场的地方了。比如,基于人类反馈的强化学习(Reinforcement Learning with Human Feedback,RLHF)。
应用RL,模型就可以学习「行为边界」,学会何时做出何种行为。
而另一个难题,则是检索和引用来源的能力。
问题在于,有了复制行为的能力和RLHF,为什么ChatGPT还会产生幻觉?
原因在于问题本身的难易。
虽然上述方法对于简短的问题和答案效果不错,但对于ChatGPT中常见的长格式设置就会出现其他问题了。
一方面,完全错误的答案也不太可能,大部分情况都是错的和对的混在一起。
在极端情况下,可能就是100行代码中的一个错误而已。
在其他情况下,这些信息在传统意义上并不能说是错的,而是有误导性的。因此,在像ChatGPT这样的系统中,人们很难根据信息量或者正确性来衡量输出的质量。
但这种衡量对于旨在训练复杂行为边界的RL算法却非常重要。
目前,OpenAI依托于RLHF的基于排名的奖励模型,该模型能够预测它认为两个答案中哪个更好,但不会给出有效的信号来明确哪个答案好了多少、信息量大了多少或正确了多少。
Schulman表示,它缺乏向模型提供反馈以学习精细行为边界的能力。而这种精细的行为边界,才是有可能解决幻觉的道路。
此外,此过程还会因为RLHF标记过程中的人为出错而变得更加复杂。
因此,虽然Schulman将RL视作减少幻觉的重要方式之一,但他认为仍然存在许多还没解决的问题。
除了前面提到的奖励模型究竟需要什么样子才能引导正确的行为之外,RLHF目前仅依赖于人类的判准。
这可能会使知识的生成变得更加困难。因为对未来的预测有时会导致不那么令人信服的表述。
然而,Schulman认为,知识的生成是语言模型的下一个重要步骤,同时,他认为对未来的预测和给出推理规则等问题的理论构建,是亟待解决的下一类开放性问题。
Schulman说,一种可能的解决方案是,用其他AI模型来训练语言模型。
OpenAI也认为,这种方法对于AI对齐来说,很有意义。
ChatGPT架构师
作为ChatGPT架构师,John Schulman早在2015年还在读博士学位的他,就加入OpenAI成为联合创始人之一。
在一次采访中,Schulman解释了自己加入OpenAI的原因:
我想做人工智能方面的研究,我认为OpenAI这家公司的使命雄心勃勃,并且致力打造通用人工智能。
尽管,在当时谈论AGI似乎有些疯狂,但我认为开始考虑它是合理的,我希望在一个地方谈论AGI是可以接受的。
另外,据Schulman透露,OpenAI将人类反馈强化学习这一方法 (RLHF)引入ChatGPT的想法可以追溯到17年了。
当时,也是OpenAI的成员,曾发表了一篇论文「从人类偏好中进行深度强化学习」就提到了这一方法。
论文地址:https://arxiv.org/pdf/1706.03741.pdf
OpenAI安全团队之所以致力于这项工作,是因为想让自己的模型符合人类的偏好ーー试图让模型真正倾听人类意见,并试图做人类想做的事情。
在GPT-3完成训练的时候,然后Schulman决定加入这股潮流,因为他看到了整个研究方向的潜力。
当被问到第一次使用ChatGPT时,第一反应是什么的时候,Schulman的话语中透露着「无感」。
还记得去年ChatGPT横空出世,让许多人瞬间炸脑。
而在OpenAI内部没有人对ChatGPT感到兴奋。因为发布的ChatGPT是一个基于GPT-3.5较弱的模型,那时候同事们在玩转GPT-4了。
所以在那个时候,OpenAI没有人对ChatGPT感到兴奋,因为有这么一个更强大,更聪明的模型已经被训练过了。
对于未来人工智能下一前沿领域看法,Schulman称,AI在更艰难的任务上不断进步,然后,问题就来了,人类应该做些什么,在哪些任务下,人类可以在大模型帮助下有更大影响力,做更多的工作。
以上是幻觉?马斯克TruthGPT也搞不定!OpenAI联合创始人直言很复杂的详细内容。更多信息请关注PHP中文网其他相关文章!

在约翰·罗尔斯1971年具有开创性的著作《正义论》中,他提出了一种思想实验,我们应该将其作为当今人工智能设计和使用决策的核心:无知的面纱。这一理念为理解公平提供了一个简单的工具,也为领导者如何利用这种理解来公平地设计和实施人工智能提供了一个蓝图。 设想一下,您正在为一个新的社会制定规则。但有一个前提:您事先不知道自己在这个社会中将扮演什么角色。您最终可能富有或贫穷,健康或残疾,属于多数派或边缘少数群体。在这种“无知的面纱”下运作,可以防止规则制定者做出有利于自身的决策。相反,人们会更有动力制定公

许多公司专门从事机器人流程自动化(RPA),提供机器人以使重复性任务自动化 - UIPATH,在任何地方自动化,蓝色棱镜等。 同时,过程采矿,编排和智能文档处理专业

AI的未来超越了简单的单词预测和对话模拟。 AI代理人正在出现,能够独立行动和任务完成。 这种转变已经在诸如Anthropic的Claude之类的工具中很明显。 AI代理:研究

快速的技术进步需要对工作未来的前瞻性观点。 当AI超越生产力并开始塑造我们的社会结构时,会发生什么? Topher McDougal即将出版的书Gaia Wakes:

产品分类通常涉及复杂的代码,例如诸如统一系统(HS)等系统的“ HS 8471.30”,对于国际贸易和国内销售至关重要。 这些代码确保正确的税收申请,影响每个INV

数据中心能源消耗与气候科技投资的未来 本文探讨了人工智能驱动的数据中心能源消耗激增及其对气候变化的影响,并分析了应对这一挑战的创新解决方案和政策建议。 能源需求的挑战: 大型超大规模数据中心耗电量巨大,堪比数十万个普通北美家庭的总和,而新兴的AI超大规模中心耗电量更是数十倍于此。2024年前八个月,微软、Meta、谷歌和亚马逊在AI数据中心建设和运营方面的投资已达约1250亿美元(摩根大通,2024)(表1)。 不断增长的能源需求既是挑战也是机遇。据Canary Media报道,迫在眉睫的电

生成式AI正在彻底改变影视制作。Luma的Ray 2模型,以及Runway的Gen-4、OpenAI的Sora、Google的Veo等众多新模型,正在以前所未有的速度提升生成视频的质量。这些模型能够轻松制作出复杂的特效和逼真的场景,甚至连短视频剪辑和具有摄像机感知的运动效果也已实现。虽然这些工具的操控性和一致性仍有待提高,但其进步速度令人惊叹。 生成式视频正在成为一种独立的媒介形式。一些模型擅长动画制作,另一些则擅长真人影像。值得注意的是,Adobe的Firefly和Moonvalley的Ma

ChatGPT用户体验下降:是模型退化还是用户期望? 近期,大量ChatGPT付费用户抱怨其性能下降,引发广泛关注。 用户报告称模型响应速度变慢,答案更简短、缺乏帮助,甚至出现更多幻觉。一些用户在社交媒体上表达了不满,指出ChatGPT变得“过于讨好”,倾向于验证用户观点而非提供批判性反馈。 这不仅影响用户体验,也给企业客户带来实际损失,例如生产力下降和计算资源浪费。 性能下降的证据 许多用户报告了ChatGPT性能的显着退化,尤其是在GPT-4(即将于本月底停止服务)等旧版模型中。 这


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

MinGW - 适用于 Windows 的极简 GNU
这个项目正在迁移到osdn.net/projects/mingw的过程中,你可以继续在那里关注我们。MinGW:GNU编译器集合(GCC)的本地Windows移植版本,可自由分发的导入库和用于构建本地Windows应用程序的头文件;包括对MSVC运行时的扩展,以支持C99功能。MinGW的所有软件都可以在64位Windows平台上运行。

SublimeText3 英文版
推荐:为Win版本,支持代码提示!

SublimeText3 Linux新版
SublimeText3 Linux最新版

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

Atom编辑器mac版下载
最流行的的开源编辑器