近几日,关于如何监督 AI 的讨论越来越热烈,各位大佬们意见非常不统一。
比如图灵奖三巨头 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 就出现了两种观点。Hinton、Bengio 为一队,他们强烈呼吁加强对 AI 的监管,否则可能引发「AI 灭绝人类」的风险。LeCun 与他们的观点并不相同,他认为 AI 强监管必将带来巨头垄断,结果是只有少数公司控制 AI 的研发。
为了表达自己的想法,很多人以签署联名信的方式来传达观点,就拿刚刚过去的几天来说,Bengio、Hinton 等再发联名信《在快速发展的时代管理人工智能风险》,呼吁在开发 AI 系统之前,研究者应该采取紧急治理措施。
最近一封名为《人工智能安全和开放的联合声明》的公开信在社交媒体上引起了轩然大波
请点击以下链接查看公开信:https://open.mozilla.org/letter/
截至目前,深度学习三巨头之一的 LeCun、斯坦福大学计算机科学系教授吴恩达等 370 多人已经在这封公开信上签名。名单还在持续更新中。
LeCun 表示,「开放、透明和广泛的访问使软件平台更安全、更可靠。这封来自 Mozilla 基金会的公开信,我也签了名,它为开放的人工智能平台和系统提供了理由。」
以下为公开信内容:
我们正处于人工智能治理的关键时刻。为了减轻人工智能系统当前和未来的危害,我们需要拥抱开放、透明和广泛的访问。这需要成为全球的首要任务
的确,公开可用的模型存在风险和漏洞 —— 人工智能模型可能被恶意行为者滥用或被装备不足的开发人员部署。然而,我们一次又一次地看到,各种专有技术都是如此 —— 增加公众访问和审查使技术更安全,而不是更危险。对基础人工智能模型进行严格和专有的控制是保护我们免受大规模伤害的唯一途径,这种想法往好了说是天真,往坏了说就是危险。
此外,人类发展的历史告诉我们,迅速采取错误的监管可能会导致权力集中,从而损害竞争和创新。开放模型可以为公开辩论提供信息并改进策略制定。如果我们的目标是安全、保障和问责,那么开放和透明就是实现这一目标的重要因素。
我们正处于一场关于人工智能时代「开放」含义的动态讨论之中。这场重要的辩论不应该放慢脚步。相反,它应该加快速度,鼓励我们尝试、学习和开发新的方法,在人工智能安全竞赛中利用开放性。
我们需要建立一套方法来促进开源和开放。这些方法可以作为以下方面的基础:
通过个人研究、合作和知识共享,我们可以加速对人工智能能力的风险和危害的了解
2. 通过帮助监管机构采用工具来监控大规模人工智能系统,加强公众监督和问责。
降低新玩家的进入门槛,是专注于创建负责任的人工智能的重要方面
作为这份公开信的签署人,我们来自各行各业的多元群体,包括科学家、政策制定者、工程师、活动家、企业家、教育工作者和记者等等。我们代表了关于如何管理和发布开源人工智能的不同观点。然而,我们强烈同意一个观点:在人工智能时代,采取开放、负责任和透明的方法对于确保我们的安全至关重要
在人工智能的安全领域,开放是解决问题的方法,而不是加剧问题的源头
签名者:需要进行改写
目前,这封仅仅出现数天的公开信在持续发酵,在国外 AI 社区已经引起了极大的关注与讨论,大家可以持续关注名单更新。
如果你同意这封联名信的观点,也可以提交自己的信息签名。
对 AI 进行强监管,到底是弊大于利,还是利大于弊,还需要时间给出答案。
以上是LeCun、吴恩达等370多人签联名信:严格控制AI是危险的,开放才是解药的详细内容。更多信息请关注PHP中文网其他相关文章!