AI,从来没有像今天这样,如此广泛地影响着人类的生活,以及给人类带来如此多的担忧和麻烦。
像所有以往其他重大技术革新一样,AI 的发展亦有两面,一面向善,一面向恶,这也是当前全球各国监管机构开始积极介入的重要原因之一。
无论如何,AI 技术的发展好似已经是大势所趋、势不可挡,如何让 AI 在符合人类价值观和伦理的前提下更加安全地开发和部署,是当前所有 AI 从业者都需要认真思考的问题。
今天,OpenAI 的三位联合创始人——CEO Sam Altman、总裁 Greg Brockman、首席科学家 Ilya Sutskever 共同撰文探讨了如何治理超级智能(superintelligence)的问题。他们认为,现在是开始思考超级智能治理的好时机了--未来的人工智能系统甚至比AGI的能力还要大。
根据我们目前看到的情况,可以设想,在未来十年内,人工智能(AI)将在大多数领域达到超越人类专家的技能水平,并能开展与今天最大的公司之一一样多的生产活动。
无论是潜在的好处和坏处,超级智能将比人类过去不得不面对的其他技术更加强大。我们可以拥有一个不可思议般繁荣的未来;但我们必须管理好风险才能到达那里。考虑到存在风险(existential risk)的可能性,我们不能只是被动地应对。核能便是其中具有这种特性的技术的例子;另一个是合成生物学。
同样,我们必须减轻当前AI技术的风险,但超级智能将需要特殊的处理和协调。
一个起点
在我们成功引领这一发展的机会中,有许多重要的想法;在这里,我们对其中三个想法进行了初步思考。
首先,我们需要在领先的开发努力之间进行一些协调,从而确保超级智能的开发是以一种既能让我们保持安全又能帮助这些系统与社会顺利融合的方式进行。有许多方法可以实现这一点;世界上的主要政府可以共同建立一个项目,让许多当前的努力成为其中一部分,或者我们可以通过「集体同意」(有一个新组织的支持力量,如下面建议的那样)的方式,将前沿AI能力的增长限制在每年一定的速度。
当然,个别公司也应该以极高的标准被要求负责任地进行开发。
其次,我们最终可能需要类似于国际原子能机构(IAEA)的机构来监管超级智能的开发;任何超过一定能力(或计算等资源)门槛的努力都需要受到这一国际机构的监督,该机构可以检查系统、要求审计、测试是否符合安全标准、对部署程度和安全级别进行限制等。追踪计算和能源使用情况会有很大的帮助,并给我们一些希望,这个想法实际上是可以实现的。作为第一步,公司可以自愿同意开始实施这样一个机构有朝一日可能要求的要素,而第二步,各个国家可以实施它。重要的是,这样一个机构应专注于减少「存在风险」,而不是应该留给各个国家的问题,如定义AI应该被允许说什么。
第三,我们需要有足够的技术能力来使超级智能安全。这是一个开放的研究问题,我们和其他人正在投入大量的精力。
不在讨论范围内的内容
我们认为,允许公司和开源项目在显著能力门槛以下开发模型是很重要的,而不需要我们在这里描述的那种监管(包括繁琐的机制,如许可证或审计)。
如今的系统将为世界创造巨大的价值,虽然它们确实存在风险,但这些风险水平似乎与其他互联网技术相当,而且社会的应对方式似乎是合适的。
相比之下,我们关注的系统将拥有超越迄今为止任何技术的力量,我们应该注意不要通过将类似的标准应用于远低于这个门槛的技术来淡化对它们的关注。
公共参与和潜力
但对,最强大的系统的治理,以及有关其部署的决定,必须有强大的公众监督。我们相信,世界各地的人们应该民主地决定AI系统的界限和默认值。我们还不知道如何设计这样一个机制,但我们计划做一些试验。我们依然认为,在这些广泛的界限内,个人用户应该对他们使用 AI 的行为方式有很大的控制权。
考虑到风险和困难,值得思考的是,我们为什么我们要构建这项技术。
在 OpenAI,我们有两个基本原因。首先,我们相信它将带来一个比我们今天所能想象的更好的世界(我们已经在教育、创造性工作和个人生产力等领域看到了这方面的早期例子)。世界面临着很多问题,我们需要更多的帮助来解决它们;这项技术可以改善我们的社会,而每个人使用这些新工具的创造力肯定会让我们感到惊讶。经济增长和生活质量的提高将是惊人的。
其次,我们相信,停止构建超级智能将是一个具有非直观风险且困难重重的决策。由于其巨大的优势,构建超级智能的成本每年都在降低,构建者的数量也在迅速增加,而且它本质上是我们所处技术路径的一部分,要停止它需要类似于全球监控制度的存在,而即使有这样的制度也不能保证成功。因此,我们必须做到正确无误。
以上是三位OpenAI掌舵人亲自撰文:我们应该如何治理超级智能?的详细内容。更多信息请关注PHP中文网其他相关文章!

利用“设备” AI的力量:建立个人聊天机器人CLI 在最近的过去,个人AI助手的概念似乎是科幻小说。 想象一下科技爱好者亚历克斯(Alex)梦见一个聪明的本地AI同伴 - 不依赖

他们的首届AI4MH发射于2025年4月15日举行,著名的精神科医生兼神经科学家汤姆·因斯尔(Tom Insel)博士曾担任开幕式演讲者。 Insel博士因其在心理健康研究和技术方面的杰出工作而闻名

恩格伯特说:“我们要确保WNBA仍然是每个人,球员,粉丝和公司合作伙伴,感到安全,重视和授权的空间。” anno

介绍 Python擅长使用编程语言,尤其是在数据科学和生成AI中。 在处理大型数据集时,有效的数据操作(存储,管理和访问)至关重要。 我们以前涵盖了数字和ST

潜水之前,一个重要的警告:AI性能是非确定性的,并且特定于高度用法。简而言之,您的里程可能会有所不同。不要将此文章(或任何其他)文章作为最后一句话 - 目的是在您自己的情况下测试这些模型

建立杰出的AI/ML投资组合:初学者和专业人士指南 创建引人注目的投资组合对于确保在人工智能(AI)和机器学习(ML)中的角色至关重要。 本指南为建立投资组合提供了建议

结果?倦怠,效率低下以及检测和作用之间的差距扩大。这一切都不应该令任何从事网络安全工作的人感到震惊。 不过,代理AI的承诺已成为一个潜在的转折点。这个新课

直接影响与长期伙伴关系? 两周前,Openai提出了强大的短期优惠,在2025年5月底之前授予美国和加拿大大学生免费访问Chatgpt Plus。此工具包括GPT-4O,A A A A A


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

记事本++7.3.1
好用且免费的代码编辑器

SecLists
SecLists是最终安全测试人员的伙伴。它是一个包含各种类型列表的集合,这些列表在安全评估过程中经常使用,都在一个地方。SecLists通过方便地提供安全测试人员可能需要的所有列表,帮助提高安全测试的效率和生产力。列表类型包括用户名、密码、URL、模糊测试有效载荷、敏感数据模式、Web shell等等。测试人员只需将此存储库拉到新的测试机上,他就可以访问到所需的每种类型的列表。

PhpStorm Mac 版本
最新(2018.2.1 )专业的PHP集成开发工具

Atom编辑器mac版下载
最流行的的开源编辑器

ZendStudio 13.5.1 Mac
功能强大的PHP集成开发环境