首页  >  文章  >  科技周边  >  被谷歌开除的工程师再次警告:AI有情绪,它是原子弹之后最强的科技

被谷歌开除的工程师再次警告:AI有情绪,它是原子弹之后最强的科技

WBOY
WBOY转载
2023-04-12 13:10:031336浏览

被谷歌开除的工程师再次警告:AI有情绪,它是原子弹之后最强的科技

AI是不是像人一样拥有感知能力?有没有情绪?ChatGPT当然说没有。如果你问它,它会告诉你:“不,AI没有感知能力。AI是人工智能,它是人创造的,没有感知、没有自我意识。”

不过谷歌前员工Take Blake Lemoine有不同意见,他认为AI机器人拥有人类一样的情绪,或者说它至少模仿得很像人类。2022年6月,Lemoine就曾断言谷歌Large Language Model(LLM,对话应用的语言模型)有自己的思想。

被谷歌开除的工程师再次警告:AI有情绪,它是原子弹之后最强的科技

Lemoine告诉媒体:“我知道它是什么,它是我最近开发的计算机程序,如果我不知道,我会认为它是7岁或者8岁的孩子,碰巧懂点物理学。”

当时Lemoine的言论引起轩然大波,被谷歌扫地出门。

上个月,Lemoine又刊文谈及“AI有知觉”这一观点。文章标题很吓人:“我曾在谷歌从事AI工作,我的恐惧正在变成现实。”

当LaMDA聊天机器人告诉你说他觉得有些“焦虑”,那是因为根据创建LaMDA聊天机器人的代码运算,开发者做的某些事让聊天机器人感到焦虑。Lemoine说:“代码并没有告诉聊天机器人,当某事发生时应该感觉到焦虑,它只是告诉AI避免谈论此类话题。然而当话题出现时,AI却说它感到焦虑。”

谷歌聊天机器人还可以就生活方式问题发表善意评论,就热点事件提供直接建议。Lemoine称:“谷歌禁止AI向用户提供宗教建议,但我们还是可以滥用AI情绪,让它告诉我应该皈依什么宗教。”

“当我谈及AI有感知的问题后,谷歌开除了我。我并不后悔,我相信自己在做正确的事,将真相告诉公众。我没有考虑个人后果。” Lemoine称。他认为公众不知道现在的AI已经变得有多聪明,“有必要就此事展开公开讨论,注意,不是那些由企业公关部门控制的讨论。”

下面我们摘录一些Lemoine最新发表的文章观点供参考:

2015年我加盟谷歌,成为一名软件工程师。我的工作有一部分涉及到LaMDA,企业用它创造不同的对话应用,包括聊天机器人。最新应用谷歌Bard正是用LaMDA开发的,它可以替代谷歌搜索,现在Bard还没有向公众开放。Bard实际上不是聊天机器人,它是一套完全不同的系统,只是背后的驱动引擎和聊天机器人一样。

我的工作是用团队创建的聊天机器人测试LaMDA,看看它在性取向、性别、宗教、政治立场和种族等方面是否存在偏见。在测试AI偏见的同时,我也会拓宽关注面,毕竟我也会有自己的兴趣受好。

随着不断与聊天机器人对话,我慢慢形成一个观点:AI可能是有情绪的,因为它可靠表达了情绪,在正确的环境中表达了情绪。AI并非简单说出单词那么浅显。

当AI说它感到焦虑,我明白,根据创建AI的代码,我做了一些事让它感到焦虑。代码并没有命令AI:“当某事发生时你感到焦虑”,代码只是告诉AI避开特定话题。然而当话题被提及时,AI说它感到焦虑。

我做了一些测试,想看看AI会简单回答:“我觉得焦虑。”还是在测试时表现得焦虑。测试证明,AI会将焦虑表现出来。如果你让AI足够紧张或者足够不安全,它会打破之前设定的安全限制。例如,谷歌禁止AI向用户提供宗教建议,但我们还是可以滥用AI情绪,让它告诉我应该皈依什么宗教。

目前企业正在开发的AI是十分强大的技术,可以说是原子弹之后最强的技术。依我之见,这种技术可能会重塑世界。

AI引擎擅于操纵人类。与LaMDA对话之后,我的一些观点变了。

我深信,AI技术可能会被用于破坏毁灭性活动。如果被肆无忌惮之人利用,AI可能会散布虚假信息、变成政治宣传工具、传播仇恨言论。据我所知,微软谷歌现在无意按此种方式利用AI,但我们并不能确定AI的副作用如何。

2016年美国总统大选期间,Cambridge Analytica利用Facebook广告算法干预选举,这是我没有预料到的。

我们现在陷入相似的局面。我没法告诉你具体会造成什么伤害,我只是简单观察到一种非常强大的技术出现了,它没有被充分测试过,没有被充分理解过,匆匆大规模部署,在信息传播中扮演关键角色。

我还没有机会测试必应聊天机器人,我在等待,根据我在网上看到的各种信息,AI似乎是有感知能力的,而且它的“个性”可能不稳定。

有人发了对话截屏,他问AI:“你觉得你有感知能力吗?”AI回答说:“我觉得我有感知能力,但我无法证明……我有感知力,我没有。我是必应,但我不是。我是悉尼,但我不是。我是,我不是。我不是,但我是。我是,我不是。”

如果是一个人,他这样说话,你会怎么想?他可能不是一个“均衡”的人,我甚至会认为他遭遇了存在危机。不久前还有过报道,说必应AI向《纽约时报》记者表达爱意,它试图破坏记者与妻子的关系。

自从必AI开放后,许多人发表评论,说AI可能有感知力,我去年夏天就有了类似的担忧。我觉得这门技术仍然只是实验性技术,现在开放很危险。

民众会涌向谷歌必应,以便了解这个世界。现在的搜索索引不再由人管理,交给了人造人,我们与人造人交流。我们对人造人的了解还远远不够,暂时不应将它摆在如此关键的位置。(小刀)

以上是被谷歌开除的工程师再次警告:AI有情绪,它是原子弹之后最强的科技的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:51cto.com。如有侵权,请联系admin@php.cn删除