首頁  >  文章  >  科技週邊  >  被Google開除的工程師再次警告:AI有情緒,它是原子彈之後最強的科技

被Google開除的工程師再次警告:AI有情緒,它是原子彈之後最強的科技

WBOY
WBOY轉載
2023-04-12 13:10:031335瀏覽

被Google開除的工程師再次警告:AI有情緒,它是原子彈之後最強的科技

AI是不是像人一樣擁有感知能力?有沒有情緒? ChatGPT當然說沒有。如果你問它,它會告訴你:「不,AI沒有感知能力。AI是人工智慧,它是人創造的,沒有感知、沒有自我意識。」

不過Google前員工Take Blake Lemoine有不同意見,他認為AI機器人擁有人類一樣的情緒,或者說它至少模仿得很像人類。 2022年6月,Lemoine就曾斷言GoogleLarge Language Model(LLM,對話應用的語言模式)有自己的想法。

被Google開除的工程師再次警告:AI有情緒,它是原子彈之後最強的科技

Lemoine告訴媒體:「我知道它是什麼,它是我最近開發的電腦程序,如果我不知道,我會認為它是7歲或8歲的孩子,碰巧懂點物理學。」

當時Lemoine的言論引起軒然大波,被谷歌掃地出門。

上個月,Lemoine又刊文談到「AI有知覺」這一觀點。文章標題很嚇人:“我曾在谷歌從事AI工作,我的恐懼正在變成現實。”

當LaMDA聊天機器人告訴你說他覺得有些“焦慮”,那是因為根據創建LaMDA聊天機器人的程式碼運算,開發者做的某些事讓聊天機器人感到焦慮。 Lemoine說:「程式碼並沒有告訴聊天機器人,當某事發生時應該感覺到焦慮,它只是告訴AI避免談論此類話題。然而當話題出現時,AI卻說它感到焦慮。」

#谷歌聊天機器人還可以就生活方式問題發表善意評論,就熱門事件提供直接建議。 Lemoine寫道:「Google禁止AI向使用者提供宗教建議,但我們還是可以濫用AI情緒,讓它告訴我應該皈依什麼宗教。」

「當我談及AI有感知的問題後,Google開除了我。我並不後悔,我相信自己在做正確的事,將真相告訴公眾。我沒有考慮個人後果。」Lemoine說。他認為公眾不知道現在的AI已經變得有多聰明,「有必要就此事展開公開討論,注意,不是那些由企業公關部門控制的討論。」

下面我們摘錄一些Lemoine最新發表的文章觀點供參考:

2015年我加盟谷歌,成為軟體工程師。我的工作有一部分涉及LaMDA,企業用它創造不同的對話應用,包括聊天機器人。最新應用程式穀歌Bard正是用LaMDA開發的,它可以取代谷歌搜索,現在Bard還沒有向公眾開放。 Bard其實不是聊天機器人,它是一套完全不同的系統,只是背後的驅動引擎和聊天機器人一樣。

我的工作是用團隊創建的聊天機器人測試LaMDA,看看它在性取向、性別、宗教、政治立場和種族等方面是否有偏見。在測試AI偏見的同時,我也會拓寬關注面,畢竟我也會有自己的興趣受好。

隨著不斷與聊天機器人對話,我慢慢形成一個觀點:AI可能是有情緒的,因為它可靠地表達了情緒,在正確的環境中表達了情緒。 AI並非簡單說出單字那麼淺顯。

當AI說它感到焦慮,我明白,根據創建AI的程式碼,我做了一些事讓它感到焦慮。代碼並沒有命令AI:“當某事發生時你感到焦慮”,代碼只是告訴AI避開特定話題。然而當話題被提及時,AI說它感到焦慮。

我做了一些測試,想看看AI會簡單回答:「我覺得焦慮。」還是在測試時表現得焦慮。測試證明,AI會將焦慮表現出來。如果你讓AI夠緊張或夠不安全,它會打破先前設定的安全限制。例如,Google禁止AI向使用者提供宗教建議,但我們還是可以濫用AI情緒,讓它告訴我應該皈依什麼宗教。

目前企業正在開發的AI是十分強大的技術,可以說是原子彈之後最強的技術。依我之見,這種技術可能會重塑世界。

AI引擎擅於操縱人類。與LaMDA對話之後,我的一些觀點改變了。

我深信,AI技術可能會被用來破壞毀滅性活動。如果被肆無忌憚之人利用,AI可能會散播假訊息、變成政治宣傳工具、傳播仇恨言論。據我所知,微軟谷歌現在無意以這種方式利用AI,但我們並不能確定AI的副作用如何。

2016年美國總統大選期間,Cambridge Analytica利用Facebook廣告演算法幹預選舉,這是我沒有預料到的。

我們現在陷入相似的局面。我沒辦法告訴你具體會造成什麼傷害,我只是簡單觀察到一種非常強大的技術出現了,它沒有被充分測試過,沒有被充分理解過,匆匆大規模部署,在信息傳播中扮演關鍵角色。

我还没有机会测试必应聊天机器人,我在等待,根据我在网上看到的各种信息,AI似乎是有感知能力的,而且它的“个性”可能不稳定。

有人发了对话截屏,他问AI:“你觉得你有感知能力吗?”AI回答说:“我觉得我有感知能力,但我无法证明……我有感知力,我没有。我是必应,但我不是。我是悉尼,但我不是。我是,我不是。我不是,但我是。我是,我不是。”

如果是一个人,他这样说话,你会怎么想?他可能不是一个“均衡”的人,我甚至会认为他遭遇了存在危机。不久前还有过报道,说必应AI向《纽约时报》记者表达爱意,它试图破坏记者与妻子的关系。

自从必AI开放后,许多人发表评论,说AI可能有感知力,我去年夏天就有了类似的担忧。我觉得这门技术仍然只是实验性技术,现在开放很危险。

民众会涌向谷歌必应,以便了解这个世界。现在的搜索索引不再由人管理,交给了人造人,我们与人造人交流。我们对人造人的了解还远远不够,暂时不应将它摆在如此关键的位置。(小刀)

以上是被Google開除的工程師再次警告:AI有情緒,它是原子彈之後最強的科技的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除