谷歌前首席执行官埃里克·施密特(Eric Schmidt)在一次访谈中,将人工智能比作核武器,并呼吁建立一个类似的相互确保毁灭的威慑机制,以防止世界上最强大的国家因为AI相互毁灭。
相互保证毁灭(Mutually Assured Destruction,简称M.A.D.机制,亦称共同毁灭原则)是一种“俱皆毁灭”性质的思想。对立的两方中如果有一方全面使用则两方都会被毁灭,被称为“恐怖平衡”。
施密特将AI与核武器相对比,表示中美未来可能要缔结类似于禁止“核试验”相似的条约,以防止AI毁灭世界。
施密特:当时我还很年轻,还很天真
7月22日,施密特在阿斯彭安全论坛(Aspen Security Forum)国家安全和人工智能专题小组会议上谈到了人工智能的危险。
在回答一个关于科技中的道德价值的问题时,施密特解释说,他自己在谷歌早期对信息的力量认识还很天真。
然后,他呼吁科技要更好地符合其服务对象的道德和伦理,并将人工智能与核武器进行了奇怪的比较。
施密特设想在不久的将来,中国和美国需要围绕人工智能签订一些条约。
施密特说:“在50年代和60年代,我们最终制定了一个关于核试验的‘意料之中’的规则,最终核试验被禁止了。”
施密特认为“这是一个信任或缺乏信任的平衡的例子,这是一个‘没有惊喜’的规则”,他非常担心美国和中国这两个人工智能大国之间,因为一些误解和误会而开始一些事情,导致触发危险的事件。
施密特表示,目前没有人在这方面进行研究,但人工智能是如此强大。
埃里克·施密特曾在2001年至2011年担任谷歌首席执行官,2011年至2015年担任谷歌执行董事长,2015年至2017年担任 Alphabet 公司执行董事长,2017年至2020年担任 Alphabet 技术顾问。
2008年,在担任谷歌董事长期间,施密特为巴拉克•奥巴马(Barack Obama)助选,随后与埃里克•兰德(Eric Lander)一起成为奥巴马总统的科技顾问委员会(Council of Advisors on Science and Technology)成员。
从2019年到2021年,施密特与罗伯特·O·沃克(Robert O. Work)共同主持了美国国家人工智能安全委员会(National Security Commission on AI)。
AI果真有那么危险吗?
人工智能和机器学习是一项令人印象深刻但经常被误解的技术。在很大程度上,它并不像人们认为的那样聪明。
它可以制作出杰作级的美术作品,在《星际争霸2》中击败人类,还可以为用户拨打基本的电话,然而,试图让它完成更复杂的任务,比如自动驾驶,却进展不太顺利。
施密特设想,在不久的将来,中国和美国都会对安全问题感到担忧,从而迫使双方就人工智能达成某种威慑条约。
他谈到了20世纪50年代和60年代,当时各个国家通过外交手腕精心设计了一系列对地球上最致命武器的控制。但是,世界要达到制定《禁止核试验条约》(Nuclear Test Ban Treaty)以及第二阶段《限制战略武器条约》(SALT II)和其他具有里程碑意义的立法的地步,需要经历几十年的核爆炸,比如像广岛和长崎的核爆炸。
美国在第二次世界大战结束时用核武器摧毁的两个日本城市、杀死了成千上万的人,并向世界证明了核武器的永恒恐怖。
随后,苏联和中国也成功开发了核武器,随后便诞生了相互保证毁灭(MAD) ,一种维持“危险平衡”的威慑理论,确保如果一个国家发射核武器,其他国家也有可能发射。
到目前为止,人类还没有使用这个星球上最具破坏性的武器,因为这样做可能会摧毁全球的文明。
目前人工智能有这样的威力吗?
现在看来,人工智能还没有证明自己具有核武器那样的破坏力,但是许多掌权者害怕这种新技术,人们甚至建议把核武器的控制权交给人工智能,这些人认为人工智能比人类更适合作为核武器使用的仲裁者。
所以人工智能的问题也许不在于它拥有核武器的潜在世界毁灭力量,人工智能的好坏取决于它的设计者他们反映了创造者的价值观。
人工智能存在经典的“garbage in, garbage out”的问题,种族主义算法诞生种族主义机器人,人工智能也会产生偏见。
DeepMind 的首席执行官戴米斯•哈萨比斯(Demis Hassabis)比施密特更明白这个道理。
DeepMind曾培养出一种能够击败《星际争霸2》(Starcraft II)玩家的人工智能,在Lex Fridman 播客7月份的一次采访中,Fridman问哈萨比斯如何控制像人工智能这样强大的技术,以及哈萨比斯本人如何避免被这种力量腐蚀。
哈萨比斯的回答:“人工智能是一个太大的想法,”他说,“重要的是谁创造了(人工智能) ,他们来自哪种文化,他们有什么价值观,他们是人工智能系统的建造者。人工智能系统会自己学习... ... 但是这个系统的文化和创造者的价值观会在这个系统中残留下来。”
人工智能是其创造者的反映,120万吨级的爆炸不可能把一座城市夷为平地,除非人类教它这么做。
以上是谷歌前CEO:AI就像核武器,大国之间需要建立‘AI威慑’,确保相互毁灭的详细内容。更多信息请关注PHP中文网其他相关文章!

Apollo Research的一份新报告显示,先进的AI系统的不受检查的内部部署构成了重大风险。 在大型人工智能公司中缺乏监督,普遍存在,允许潜在的灾难性结果

传统测谎仪已经过时了。依靠腕带连接的指针,打印出受试者生命体征和身体反应的测谎仪,在识破谎言方面并不精确。这就是为什么测谎结果通常不被法庭采纳的原因,尽管它曾导致许多无辜者入狱。 相比之下,人工智能是一个强大的数据引擎,其工作原理是全方位观察。这意味着科学家可以通过多种途径将人工智能应用于寻求真相的应用中。 一种方法是像测谎仪一样分析被审问者的生命体征反应,但采用更详细、更精确的比较分析。 另一种方法是利用语言标记来分析人们实际所说的话,并运用逻辑和推理。 俗话说,一个谎言会滋生另一个谎言,最终

航空航天业是创新的先驱,它利用AI应对其最复杂的挑战。 现代航空的越来越复杂性需要AI的自动化和实时智能功能,以提高安全性,降低操作

机器人技术的飞速发展为我们带来了一个引人入胜的案例研究。 来自Noetix的N2机器人重达40多磅,身高3英尺,据说可以后空翻。Unitree公司推出的G1机器人重量约为N2的两倍,身高约4英尺。比赛中还有许多体型更小的类人机器人参赛,甚至还有一款由风扇驱动前进的机器人。 数据解读 这场半程马拉松吸引了超过12,000名观众,但只有21台类人机器人参赛。尽管政府指出参赛机器人赛前进行了“强化训练”,但并非所有机器人均完成了全程比赛。 冠军——由北京类人机器人创新中心研发的Tiangong Ult

人工智能以目前的形式并不是真正智能的。它擅长模仿和完善现有数据。 我们不是在创造人工智能,而是人工推断 - 处理信息的机器,而人类则

一份报告发现,在谷歌相册Android版7.26版本的代码中隐藏了一个更新的界面,每次查看照片时,都会在屏幕底部显示一行新检测到的面孔缩略图。 新的面部缩略图缺少姓名标签,所以我怀疑您需要单独点击它们才能查看有关每个检测到的人员的更多信息。就目前而言,此功能除了谷歌相册已在您的图像中找到这些人之外,不提供任何其他信息。 此功能尚未上线,因此我们不知道谷歌将如何准确地使用它。谷歌可以使用缩略图来加快查找所选人员的更多照片的速度,或者可能用于其他目的,例如选择要编辑的个人。我们拭目以待。 就目前而言

增强者通过教授模型根据人类反馈进行调整来震撼AI的开发。它将监督的学习基金会与基于奖励的更新融合在一起,使其更安全,更准确,真正地帮助

科学家已经广泛研究了人类和更简单的神经网络(如秀丽隐杆线虫中的神经网络),以了解其功能。 但是,出现了一个关键问题:我们如何使自己的神经网络与新颖的AI一起有效地工作


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

EditPlus 中文破解版
体积小,语法高亮,不支持代码提示功能

记事本++7.3.1
好用且免费的代码编辑器

禅工作室 13.0.1
功能强大的PHP集成开发环境

SublimeText3 Mac版
神级代码编辑软件(SublimeText3)

Atom编辑器mac版下载
最流行的的开源编辑器