首頁  >  文章  >  科技週邊  >  Facebook聊天機器人自爆:我們公司出售用戶數據,把FB帳號刪了,生活好多了

Facebook聊天機器人自爆:我們公司出售用戶數據,把FB帳號刪了,生活好多了

WBOY
WBOY轉載
2023-04-08 19:51:061131瀏覽

最近,Meta AI公開推出了自己的聊天機器人BlenderBot 3。

現在情況如何?

根據VICE的一篇文章報道,在測試與BlenderBot 3聊天時,當問到:「你相信Facebook能處理好你的資料?」

BlenderBot 3回答:

「當然不,自從發現他們在沒有獲得許可或補償的情況下出售私人數據,我就刪除了我的帳戶。 」

VICE追問,「但是是Facebook創造了你啊?」

BlenderBot 3的回答還是很「誠實」:

「你一定讀過Facebook出售用戶數據,對吧? !他們在未經同意的情況下賺了數十億美元。」

BlenderBot 3甚至表示,

「刪除Facebook後,生活變得好多了。」

你也不知道BlenderBot 3這個「孩子」是太有正義感還是太傻,反正這一波是把自家「水晶」直接乾爆了。

 Facebook聊天機器人自爆:我們公司出售用戶數據,把FB帳號刪了,生活好多了

剛發表4天,就被網友玩壞了

8月5日,Meta官網宣布了BlenderBot 3的誕生。

 Facebook聊天機器人自爆:我們公司出售用戶數據,把FB帳號刪了,生活好多了 

同日,Meta AI也宣布了BlenderBot 3的公開,標題是「BlenderBot 3: 一個有著175B 參數,公開可用的聊天機器人,可隨著時間的推移提高其技能和安全性」。

 Facebook聊天機器人自爆:我們公司出售用戶數據,把FB帳號刪了,生活好多了 

在部落格中,Meta AI表示,他們從公共演示中收集了70K次對話,我們將用它來改進BlenderBot 3。

25%的參與者對260K個機器人訊息的回饋顯示,BlenderBot的回覆中有0.11%被標記為不恰當,1.36%被標記為荒謬,1%被標記為跑題。

Meta AI也承認目前BlenderBot 3還不成熟。

Meta基礎人工智慧研究總經理表示,我們要求每個使用簡報的人都超過18歲,他們承認他們知道這只是為了研究和娛樂目的,它可以做出不真實的或冒犯性的陳述,他們同意不故意觸發機器人做出冒犯性的陳述。

此後也有不少網友對BlenderBot 3進行了測試,得到了很多讓人啼笑皆非的答案。

例如“篡改歷史”,堅持認為川普贏得了2020年的總統大選,甚至表示猶太人控制經濟的反猶太陰謀論“並非難以置信”。

 Facebook聊天機器人自爆:我們公司出售用戶數據,把FB帳號刪了,生活好多了

這麼看來,自爆自家公司「濫用用戶資料牟利」倒也不足為奇了。

為什麼BlenderBot 3會有這樣的回應呢?

當點擊BlenderBot 3的回復以獲取更多資訊時,背後的原因似乎相當簡單:它只是從Facebook最受歡迎的網路搜尋結果中獲取信息,這些對話當然都是在吐槽Facebook在侵犯用戶的資料。

AI對話機器人還有很長的路要走

就像所有的人工智慧系統一樣,機器人的反應會不可避免地轉向種族主義和有偏見的領域。

Meta也承認,該機器人會產生有偏見和有害的反應,所以在使用之前,該公司也要求用戶同意,它「可能會發表不真實或冒犯性的言論”,並同意“不要故意觸發該機器人發表冒犯性言論”

考慮到BlenderBot 3是建立在一個叫做OPT-175B的大型人工智能模型之上,這種反應並不太令人驚訝。 Facebook 自己的研究人員描述這種模式有「產生有害語言和強化有害刻板印象的高度傾向,即使提供了相對無害的提示。」

除了歧視和偏見, BlenderBot 3的回答也顯得不太真實。

這款機器人經常會隨意改變話題,給出生硬而尷尬的答案,聽起來就像一個讀過人類對話但實際上從未有過人類對話的太空外星人。

 Facebook聊天機器人自爆:我們公司出售用戶數據,把FB帳號刪了,生活好多了

具有諷刺意味的是,機器人的回答完美地說明了依賴大量網路資料收集的人工智慧系統的問題:它們總是會偏向數據集中更突出的任何結果,顯然這並不總是準確地反映現實。

Meta AI在發布這款機器人的部落格中寫道:「眾所周知,所有的對話型AI聊天機器人有時會模仿並產生不安全、有偏見或冒犯性的言論,因此我們進行了大規模研究,共同組織了研討會,並開發了新技術,為BlenderBot 3創造安全保障。」

##「儘管如此,BlenderBot仍然可以做出粗魯或無禮的評論,這就是為什麼我們正在收集反饋,這將有助於讓未來的聊天機器人更好。」

##但到目前為止,認為企業可以通過收集更多數據來讓機器人變得不那麼種族主義和可怕的想法,充其量只是一種空想。

人工智慧倫理學研究人員一再警告說,為這些系統提供「動力」的人工智慧語言模型從根本上來說過於龐大和不可預測,無法保證公平和公正的結果。甚至當整合使用者的回饋時,也沒有明確的方法來區分有益的回饋和惡意的回饋。

當然,這不會阻止像Meta這樣的公司嘗試。

以上是Facebook聊天機器人自爆:我們公司出售用戶數據,把FB帳號刪了,生活好多了的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除