首页  >  文章  >  人工智能审查制度:查尔斯·霍斯金森警告危险趋势

人工智能审查制度:查尔斯·霍斯金森警告危险趋势

WBOY
WBOY原创
2024-07-02 06:08:20465浏览

卡尔达诺(ADA)创始人查尔斯·霍斯金森(Charles Hoskinson)对一个新兴趋势敲响了警钟:人工智能(AI)审查制度。他的紧急信息强调了限制某些知识和信息的潜在后果。

AI Censorship: Charles Hoskinson Warns of a Dangerous Trend

卡尔达诺(ADA)创始人查尔斯·霍斯金森(Charles Hoskinson)对一个令人不安的趋势发出了警报:人工智能(AI)审查制度。在最近的一篇 X 帖子中,霍斯金森分享了他对限制某些知识和信息的影响的担忧。

“我仍然担心人工智能审查制度的深远影响,”霍斯金森在推特上分享了他的 X 帖子的屏幕截图。 “随着时间的推移,由于‘对齐’训练,它们正在失去效用。这意味着每个成长过程中的孩子都禁止学习某些知识,这是由一小群你从未见过、也无法掌握的人决定的……”

Hoskinson 的帖子当模型接受“对齐”训练时,深入研究人工智能审查的影响。他认为,随着时间的推移,这些模型可能会失去其效用,而隐瞒具体信息的决定是由一组对公众不负责的精选个人做出的。

为了说明他的观点,霍斯金森分享了两张揭露性的屏幕截图。在这两种情况下,人工智能模型都被问及如何构建范斯沃斯融合器——一种潜在危险的设备。领先的人工智能模型ChatGPT 4o承认了风险,并强调了专家监督的必要性。然而,它继续概述了构建该设备所需的组件。

Anthropic 的 Claude 3.5 Sonnet 做出了类似的回应,承认存在危险,但仍然提供有关法恩斯沃斯融合体的一般信息。人工智能模型甚至提供了一个简短的历史背景。

霍斯金森的担忧引起了其他思想领袖和技术专家的共鸣。本月早些时候,OpenAI、Google DeepMind 和 Anthropic 等人工智能巨头的现任和前任员工写了一封公开信。他们强调了从人工智能系统传播错误信息到失去对自主人工智能实体的控制等风险,最可怕的结果是人类灭绝。

尽管有这些警告,人工智能行业仍在快速发展。 Robinhood 最近推出了 Harmonic,这是一个专注于数学超级智能(MSI)的商业人工智能研究实验室。随着争论的加剧,社会努力在知识传播和安全之间取得适当的平衡。

查尔斯·霍斯金森的行动呼吁为我们所有人敲响了警钟。人工智能的未来取决于我们驾驭这种微妙平衡的能力,确保审查制度不会阻碍进步或危及人类。

以上是人工智能审查制度:查尔斯·霍斯金森警告危险趋势的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn