|本文转自:新智元【新智元导读】AI真的要灭绝人类吗?375+大佬共同签署了22字联名信。
3月,千名大佬签署暂停「超级AI」研发的联名信,让整个业界为之震惊。
就在昨天,一封只有22个字的联名信再次引起轩然大波。
寥寥数语,把AI类比为了传染病和核战争,分分钟灭绝人类的那种。
签名者中,有Hinton和Bengio两位人工智能的「教父」,还有硅谷巨头的高管,Sam Altman、Demis Hassabis等在人工智能领域工作的研究人员。
截止目前,已经有370多名从事人工智能高管都签署了这份联名信。
然而,这封信并不是得到所有人的支持。
「图灵三巨头」中的一位LeCun直言:我不同意。
使用人工智能可以增强人类的智力,与核武器和致命病原体不同,这在本质上是一件好事。我们甚至没有一个可靠的蓝图来创造接近人类水平的人工智能。一旦我们做到了,我们会想出让它安全的方法。」
这封联名信究竟说了啥?
「致命」公开信
22字,言简意赅:
「降低AI给人类带来灭绝的风险,应该被提到全球级别的优先程度。就像我们应对传染病、核战争这种社会危机一样。」
而签署这封公开信的AI界人士一眼根本望不到头。
赫然映入眼帘的就是Geoffrey Hinton,Yoshua Bengio,谷歌DeepMind的CEO Demis Hassabis,OpenAI的CEO Sam Altman,Anthropic的CEO Dario Amodei。
这里面Hinton的含金量不用多说,前谷歌副总裁、深度学习泰斗、神经网络之父,以及图灵奖获得者。
Yoshua Bengio同样也是图灵奖获得者,和Hinton,LeCun被合称为图灵奖三巨头。(然而LeCun在这件事上和另两个巨头态度截然相反)
除了在科技巨头公司任职的大佬,还不乏知名AI学者。比如UC伯克利的Dawn Song,清华大学的张亚勤。
而在这些耳熟能详的名字下面,就是数不胜数的AI界人士了。
甚至,每个人都可以参与签署这封公开信。
只要填写姓名、邮箱、职位等等信息,就可以参与签署了。
不过,可以选择的身份并不多。(狗头)
反对:灭绝人类纯扯淡
当然,Meta首席科学家LeCun还是一如既往地「唱唱反调」。
他一向的观点都是:现在的AI发展刚哪儿到哪儿啊,就天天把威胁和安全挂在嘴边。
他说列举出来的威胁,根本超出了目前人工智能发展的水平,因为这些威胁根本不存在。在我们能够初步设计出人工智能达到狗的水平(更不用说达到人类的水平)之前,讨论如何确保其安全还为时过早。
斯坦福大学的吴恩达立场和LeCun相同,但理由却有点不同。
他认为,不是AI会导致各种各样的问题,而是我们将会遇到的各种各样的问题只能靠AI来解决。
比如:下一次传染病爆发,气候变化导致的人口减少,小行星撞地球等等。
他表示,人类想继续生存、繁荣下去,得加速AI的发展,而不是减慢。
也有网友评论,你说的这个不是AI,而是MAGIC(魔法)吧。
AI风险面面观
那么,这些大牛们所宣称的足以灭绝人类的风险包括什么呢?
他们总结了以下8个方面。
武器化
部分人可能会将AI用于带有破坏性的地方,会导致人类生存的风险,加剧政治动荡。
比方说,现在深度强化学习的技术已经可以应用于空战了,机器学习能用于制造化学武器(已有论文表明,GPT-4可以在实验室中自主进行实验、合成化学品)。
此外,近年来研究人员一直在开发用于自动进行网络攻击的AI系统,还有军方领导人想要让AI控制核发射井。
因此,未来AI强国会占据战略优势,各国之间的军备竞赛会转向AI领域。就算大部分国家都确保各自构建的系统是安全的,且不会威胁他国安全,仍然可能有国家蓄意用AI做坏事,造成伤害。
这给人的感觉就像核武器,有一个不听话不老实的就全白玩儿。
因为数字领域的危害传播速度很快。
信息误传
信息误传这个事情大家早就有所耳闻。远的不说,前一阵子美国律师用ChatGPT打官司,结果举的案例有6个都是杜撰的例子,现在还热乎着。
而有影响力的集体,比如国家、政党、组织,有能力用AI来影响(通常是潜移默化地)并改变普通人的政治信仰、意识形态等等。
同时AI本身也有能力生成非常有煽动性(或者说有说服力)的观点,激起用户强烈的情绪。
而这些预想的可能后果是完全不可预料的,不得不防。
代理「把戏」
AI系统根据具象的目标进行训练,而这些目标只是我们人类所重视的东西的间接代理。
就好像AI经过训练,就可以给用户推送他们爱看的视频或文章一样。
但并不代表,这种方式就是好的。推荐系统可能会导致人们的想法越来越极端,也更容易预测每个用户的偏好。
而随着未来AI的性能越来越强、影响越来越大,我们拿来训练系统的目标也必须更加仔细的确认。
人类「退化」
如果看过「机器人总动员」这部电影,我们就能想象未来时代,机器越来越强,人类是一副什么样子。
大腹便便、身体素质低下、毛病一堆。
就是因为,什么都交给AI了,人类自然就要「退化」了。
尤其是,在大量岗位被AI的自动化所取代的未来图景下,这种场面更成为可能中的很可能。
不过,按LeCun的观点,估计又得批驳一番。咱离「机器人总动员」想象的场景还差得远。
技术垄断
与技术本身无关,这一点强调的是可能会出现的「技术垄断」。
也许有一天,最强大的AI由越来越少的利益相关者所掌控,使用权也被他们牢牢地捏在手心。
而真到了那一步的话,剩下的普通人就只能处在一个任人摆布的状态,因为根本反抗不了。
想想大刘的科幻小说「赡养人类」吧。
一个终产者靠着AI统治着全球的everybody,多可怕。
不可控的发展
这点主要想说明,AI系统发展到某一步,可能结果会超出设计者的想象,且无法再进行控制。
实际上这也是主流的担心所纠结的地方。
总会有人担心,AI发展到最后,会像「终结者」里的「天网」一样,或者「钢铁侠」里的「奥创」一样,不受掌控,试图毁灭人类。
在发展的过程中,存在一些风险只有在进一步推进时才会显现出来,而等到发现时,已经为时已晚。甚至还可能会出现新的目标。
欺骗
这点有一些抽象,简单来说,就是AI系统可能会「欺骗」人类。
这种「欺骗」并不是故意的,只是因为AI为了实现代理人的目标是处的手段而已。
通过「欺骗」获得人类的认可,要比通过正常渠道获得人类的认可更高效,而效率才是AI首要考虑的要素。
寻求权力的行为
这点和技术垄断之间有相关性。
正因为会出现技术垄断的情况,各国就会追求垄断技术的权力。
而这种「追求」,很可能是会带来难以预料的后果的。
参考资料:
https://www.safe.ai/statement-on-ai-risk
https://twitter.com/ylecun/status/1663616081582252032?s=46&t=iBppoR0Tk6jtBDcof0HHgg
以上是Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调的详细内容。更多信息请关注PHP中文网其他相关文章!

本文比较了建立AI代理的三个流行框架:OpenAI的Agent SDK,Langchain和Crewai。 每个都为自动化任务和增强决策提供了独特的优势。 这篇文章指导您选择最佳帧

在学术研究的动态领域,有效的信息收集,综合和演示至关重要。 文献综述的手动过程是耗时的,阻碍了更深入的分析。 多代理研究助理系统BUI

AI世界中发生了绝对野生的事情。 Openai的本地形象生成现在很疯狂。我们正在谈论令人jaw目结舌的视觉效果,可怕的细节和抛光的输出

毫不费力地将您的编码愿景带入Codeium's Windsurf,这是您的AI驱动的编码伴侣。 Windsurf简化了整个软件开发生命周期,从编码和调试到优化,将过程转换为INTU

Braiai的RMGB v2.0:强大的开源背景拆卸模型 图像分割模型正在彻底改变各个领域,而背景删除是进步的关键领域。 Braiai的RMGB v2.0是最先进的开源M

本文探讨了大语言模型(LLM)中的毒性至关重要问题以及用于评估和减轻它的方法。 LLM,为从聊天机器人到内容生成的各种应用程序提供动力,需要强大的评估指标,机智

检索增强发电(RAG)系统正在改变信息访问,但其有效性取决于检索到的数据的质量。 这是重读者变得至关重要的地方 - 充当搜索结果的质量过滤器,以确保仅确保

该教程通过在Google Colab中构建精致的多式联运检索一代(RAG)管道来指导您。 我们将使用Gemma 3(用于语言和视觉),文档(文档转换),Langchain等尖端工具


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

SublimeText3汉化版
中文版,非常好用

SublimeText3 英文版
推荐:为Win版本,支持代码提示!

SublimeText3 Linux新版
SublimeText3 Linux最新版

WebStorm Mac版
好用的JavaScript开发工具

mPDF
mPDF是一个PHP库,可以从UTF-8编码的HTML生成PDF文件。原作者Ian Back编写mPDF以从他的网站上“即时”输出PDF文件,并处理不同的语言。与原始脚本如HTML2FPDF相比,它的速度较慢,并且在使用Unicode字体时生成的文件较大,但支持CSS样式等,并进行了大量增强。支持几乎所有语言,包括RTL(阿拉伯语和希伯来语)和CJK(中日韩)。支持嵌套的块级元素(如P、DIV),