首页  >  文章  >  科技周边  >  关于AI监管,马斯克再“摇旗呐喊”,苏纳克也发出警告!

关于AI监管,马斯克再“摇旗呐喊”,苏纳克也发出警告!

王林
王林转载
2023-11-03 14:37:09628浏览

周四,全球首届人工智能安全峰会在英国结束,马斯克与英国首相苏纳克的AI对话引起了业界的关注

在这其中,马斯克再次强调要提高AI监管的重要性,而苏纳克也发出警告称AI可能会带来类似核战争的风险

AI监督

在两人的对话中,马斯克将人工智能描述为“历史上最具颠覆性的力量”,并表示我们最终将“拥有比最聪明的人类更聪明的东西”。

同时,他也将人工智能比作一把”双刃剑”。这项技术在他看来至少有80%的机率对人类有益,20%的机率会带来危险,有可能成为人类面临的“最大威胁”之一。

“人工智能很可能成为一股向善的力量,但它变坏的可能性并不是零。”

对于人工智能将如何影响工作时,马斯克预测人类劳动力将被淘汰。

“总有一天, 我们将 不需要工作。如果你想找一份工作来满足个人需求,你可以找一份工作,但人工智能将能够做一切事情。”
“这是否会让人们感到舒服还不清楚,未来的挑战之一将是我们如何找到生活的意义。”

马斯克最近在监管方面发表了新的看法,他认为:“尽管监管确实很烦人,但是多年来我们已经认识到,有仲裁是一件好事。”

他建议成立一个中立的“第三方裁判”机构来监督AI公司的开发活动,以便及时发现领先的AI公司的活动趋势和潜在问题

制定有效的人工智能监管规则需要对其发展有深入了解,因此,他并不担心在没有充足理解的情况下过早制定相关规则

关于政府应该采取哪些措施来“管理和减轻”人工智能的风险时,马斯克确认需要政府干预,并表示他不同意“不到 1% 的监管”。

马斯克在过去的十年里一直在警告人工智能可能对人类的生存构成威胁。在全球范围内人工智能潮流席卷而至之际,今年七月,马斯克宣布他正在组建xAI团队,旨在“理解现实”。他曾表示:“从人工智能安全的角度来看,一个具有最大好奇心、试图理解宇宙的人工智能将对人类有利。”

马斯克和苏纳克一致认为,可能需要物理“开关”来防止机器人以危险的方式失控,并参考了《终结者》系列电影和其他科幻电影。苏纳克称:“所有这些具有相同情节的电影基本上都以人关掉它而结束。”

会上,苏纳克也警告说,AI可能会给人类带来与核战争规模相当的风险。他对先进的AI模型给公众带来的风险感到担忧。

“开发这项技术的人们已经提出了AI可能带来的风险,重要的是不要对此过于危言耸听。关于这个话题存在争议。业内人士对此看法并不一致,我们也无法确定。”
“但有理由相信 ,它可能会带来与大流行病和核战争规模相当的风险,这就是为什么,作为领导人,我们有责任采取行动,采取措施保护人民,这正是我们正在做的事情。”

《布莱切利宣言》

此前一天,在这场人工智能安全峰会上,英国政府公布了《布莱切利宣言》。

全球首个人工智能协议已经得到来自28个国家和地区的代表签署通过,这些国家包括中国、印度、美国和欧盟等。该协议旨在解决前沿人工智能模型可能会面临的失控和滥用的风险,并警告人工智能可能造成“灾难性”伤害

关于AI监管,马斯克再“摇旗呐喊”,苏纳克也发出警告!

AI的宣言指出,它为全球带来了巨大的机遇。AI有着改变或增强人类福祉、和平与繁荣的潜力。与此同时,AI也带来了重大的风险,甚至在日常生活领域也是如此

“所有问题都至关重要,我们确认解决它们的必要性和紧迫性。”

许多AI所带来的风险本质上属于国际性问题,因此最好通过国际合作来解决

“为了实现这一点,我们申明,为了所有人的利益,AI应该以安全、以人为本、值得信赖和负责任的方式设计、开发、部署和使用。”

声明指出,鼓励所有相关方针对潜在的有害能力和可能带来的相关影响,制定适合具体情况的计划,并提供透明度和问责制。特别是要防止滥用和控制问题以及其他风险的扩大

在合作的背景下,宣言重点关注两个要点:一、识别共同关注的AI安全风险,建立针对它们的科学和基于证据的“认识理解”,并在能力不断增强的情况下维持这种认识理解,以更广泛的全球方法来了解AI对我们社会的影响。

二、各国应制定基于风险的政策,并相互合作。“为了推进这一议程,我们决心支持一个具有国际包容性的前沿人工智能安全科学研究网络,以加深对尚未完全了解的人工智能风险和能力的理解。”

据悉,下一届人工智能安全峰会将于 2024 年由韩国和法国主办。

以上是关于AI监管,马斯克再“摇旗呐喊”,苏纳克也发出警告!的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:sohu.com。如有侵权,请联系admin@php.cn删除