参考消息网5月31日报道美国《财富》杂志网站5月30日发表题为《萨姆·奥尔特曼和其他技术专家警告,人工智能构成“灭绝风险”,危险程度与疫情、核战不相上下》的报道,全文摘编如下:
技术专家和计算机科学专家警告说,人工智能对人类生存构成的威胁与核战争和全球大流行病相比不相上下,就连替人工智能打头阵的商界领袖也对这项技术威胁人类的生存发出了警告。
非营利研究机构人工智能安全中心30日发表了一份“关于人工智能风险的声明”,在声明上签字的有300多人,开放人工智能研究中心的首席执行官萨姆·奥尔特曼也是其中一个。这封信虽然简短,但它概括了人工智能的风险。信中说:“降低人工智能灭绝人类的风险以及降低流行病和核战争等其他影响全社会的风险,应该成为全球优先考虑的事项。”
这封信的开头表明,声明的目的是启动讨论,为应对人工智能技术可能导致世界末日的能力做好准备。约舒亚·本乔和前谷歌工程师杰弗里·欣顿,还有其他签名者都加入了这个行动。由于这两人对现代计算机科学的贡献,他们被誉为人工智能教父。近几周来,本乔和欣顿已多次就人工智能技术在不久的将来可能发展出何种危险能力发出警告。欣顿最近离开了谷歌,以便能够更公开地讨论人工智能的风险。
这不是第一封呼吁进一步关注先进人工智能研究在没有政府更严格监管的情况下可能带来何种灾难性结果的信。今年3月,超过1000名技术专家以该技术具有破坏性的潜力为由,呼吁暂停研究先进人工智能6个月,埃隆·马斯克也是其中之一。
奥尔特曼本月警告国会,随着技术飞速发展,监管已经跟不上了。
奥尔特曼最新声明与之前的信不同,没有明确提出任何具体目标,仅呼吁展开讨论。而欣顿本月早些时候在接受美国有线电视新闻网采访时说,他没有在3月份的那封信上签字。
尽管包括开放人工智能研究中心甚至谷歌在内的顶尖人工智能研究机构的高管呼吁各国政府在监管人工智能方面尽快采取行动,但一些专家警告说,在当前的一些问题——包括虚假信息和可能存在的偏见——已经造成严重破坏的情况下,讨论这项技术未来威胁人类生存的风险是适得其反的。还有人甚至认为,奥尔特曼等首席执行官借着公开讨论人工智能的风险,实际上一直试图转移人们对该技术目前已存在问题的注意力。
但预言人工智能将带来世界末日的人也警告说,这项技术发展得过快,以至于风险可能很快变成一个问题,是人力所不能及的。超级人工智能能够自我思考和思辨的能力日益成熟,这让越来越多人感到担忧,速度甚至超出了很多人的预期。一些专家警告说,这项技术目前并不符合人类的利益和福祉。
欣顿本月在接受《华盛顿邮报》采访时说,超级人工智能正在快速发展,现在可能只剩下20年的时间了,现在是时候就先进人工智能的风险进行对话了。
他说:“这并不是科幻小说。”(编译/涂颀)
以上是美媒:人工智能危险程度堪比疫情、核战的详细内容。更多信息请关注PHP中文网其他相关文章!