首頁  >  文章  >  科技週邊  >  馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!

馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!

王林
王林轉載
2023-04-12 08:25:021180瀏覽

前兩天, 谷歌搞了一個機器人方面的新研究-PaLM-SayCan。

簡單來說就是,「你已經是個成熟的機器人了,可以自己學會服務我了。」

馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!

但馬庫斯不這麼認為。

我懂了,你們要做一個「終結者」出來

從表演節目來看,Google的新機器人PaLM-SayCan確實很酷炫。

人類說一句,機器人聽一句,立刻行動不帶猶豫。

這款機器人可是相當“懂事”,你不用硬邦邦地說一句“從廚房裡給我拿來椒鹽捲餅”,只要說一句“我餓了”,它就會自己走到桌子旁,然後給你拿零食。

不需要多餘的廢話,不需要更多細節。 馬庫斯(Marcus)承認:它真的是我見過的最接近 Rosie the Robot的機器人。

馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!

從這個專案可以看出,Alphabet歷來獨立的兩個部門——Everyday Robots和Google Brain,投入了許多精力。參與計畫的Chelsea Finn和Sergey Levine都是學術大牛。

很顯然,Google投入了大量的資源(例如大量的預訓練語言模型和類人機器人以及大量的雲端運算),才造出來這麼牛掰的機器人。

Marcus對此表示:我絲毫不驚訝他們能把機器人造得這麼好,我只是有些擔心──我們是否應該這麼做?

Marcus認為,有兩個問題。

「瓷器店裡的公牛」

首先,就是眾所周知的,這個新系統所依賴的語言技術,本身就有問題;其次,在機器人的背景下,問題可能會更大。

暫且不說機器人,我們已經知道所謂的大語言模型就像公牛一樣——厲害、強大、魯莽地在瓷器店裡橫衝直撞。他們可以在一瞬間直接瞄準目標,然後轉向未知的危險。一個特別生動的例子來自法國Nabla 公司,該公司探索了GPT-3作為醫療顧問的效用:

馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!

像這樣的問題不勝枚舉。

Alphabet 的另一家子公司DeepMind就提出了 21 個大型語言模式的社會和倫理問題,涉及公平、資料外洩和資訊等主題。

馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!

#論文網址:https://arxiv.org/pdf/2112.04359.pdf

但是他們卻沒提這一點:被某些模型嵌入的機器人,有可能會把您的寵物幹掉,或毀掉您的房子。

我們真的應該重視這一點。 PaLM-SayCam實驗清楚地表明,有21個問題需要更新。

例如大型語言模型會建議人自殺,或是簽署種族滅絕協定,或它們可能帶毒。

而且它們對訓練集的細節非常(過度)敏感——當你把這些訓練集放進機器人裡,如果他們誤解了你,或者沒有充分理解你要求的含義,他們可能會給你帶來大麻煩。

值得稱讚的是,PaLM-SayCan 的工作人員至少能想到預防這種情況的發生。

對於機器人那裡傳來的每一個請求,他們都會進行一種可行性檢查:語言模型推斷出使用者想要做的這件事,是否真的可以完成。

但這就萬無一失了嗎?如果使用者要求系統將貓放入洗碗機,這的確是可行的,但安全嗎?合乎道德嗎?

馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!

如果系統誤解了人類,也會發生類似的問題。

例如,如果人們說「把它放在洗碗機裡」,而大語言模型將「它」的指涉物件視為單字cat,而使用者指的是別的東西。

從對大型語言模型的所有研究中,我們會了解到:它們根本就不夠可靠,無法讓我們100%地清楚了解使用者的意圖。誤解是無法避免的。如果不對這些系統進行真正嚴格的檢查,其中一些誤解可能會導致災難。

Maayan Harel 為Rebooting AI畫了這個很棒的插圖,機器人被告知要把客廳裡的所有東西都收起來:

馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!

還記得《愛,死亡,機器人》原著第三部中,那個要求主人把貓丟向發狂的掃地機器人的故事麼。

與真實世界的鴻溝

現實的情況是,目前就是沒有可行的辦法能夠解決許多困擾大型語言模型的「alignment」問題。

正如Marcus在先前提到的:大型語言模型只是膚淺的統計模擬,而不是傳遞它們周圍世界的豐富認知的模型。在對世界知之甚少的語言系統上建立機器人,是不可能成功的。

而這正是Google的新系統正在做的事:將膚淺、不可救藥的語言理解器與強大且具有潛在危險的人形機器人縫合在一起。俗話說,垃圾進,垃圾出(garbage in, garbage out)。

要記住,演示與現實之間通常存在著巨大的鴻溝。

無人駕駛汽車演示已經存在了幾十年,但事實證明,讓它們可靠地工作比我們想像的要困難得多。

Google共同創辦人謝爾蓋布林在2012年就承諾,我們會在2017年用上無人駕駛汽車;現在到了2022年,它們仍然處於有限的實驗測試階段。

Marcus在2016年就曾警告過,核心問題是邊緣情況:

無人駕駛汽車在常見的情況下,是表現很棒。如果你把它們放在帕洛阿爾託的晴朗天氣裡,它們就很棒。如果你把它們放在有雪或有雨的地方,或者它們以前沒見過的地方,對它們來說就很難了。 Steven Levy 有一篇關於谷歌自動汽車工廠的精彩文章,他談到了2015年底的巨大勝利是他們終於讓這些系統識別樹葉了。系統能辨識樹葉,很好,但還有一些不那麼常見的東西,就沒那麼多數據了。

這仍然是核心問題。直到最近幾年,無人駕駛汽車產業才意識到這個現實。正如 Waymo AI/ML 工程師 Warren Craddock 最近在一個應該完整閱讀的線程中所說的那樣:

馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!

事實就是:有無數種邊緣情況。有無數不同的萬聖節服裝。闖紅燈的速度是連續的。無法枚舉邊緣情況。即使可以列舉邊緣情況,也無濟於事!

而且,最重要的是-

馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!

#當明白邊緣情況在本質上也是無限的,你就可以看到問題有多複雜了。深度網路的本質——它們的基本機制——意味著邊緣情況很容易被遺忘。你不能只體驗一次邊緣案例,然後讓它消失。

沒有理由認為,機器人或具有自然語言介面的機器人(例如Google的新系統)可以免除這些問題。

可解釋性問題

還有一個問題是可解釋性。

Google對讓系統如何在一定程度上可解釋做了很大的努力,但沒有找到明顯的方法,將大型語言模型與那種(在微處理器、 USB 驅動程式和大型飛機設計中常用的形式驗證方法)結合在一起。

對,使用GPT-3 或PaLM 寫超現實散文無需通過驗證;你也可以欺騙Google 工程師,讓他們相信你的軟體是有感知的,而無需確保系統是連貫的或正確的。

但是,處理各種家務的類人家庭機器人(不僅僅是Roomba 的吸塵器)需要做的,不僅僅是與用戶社交,它們還需要可靠、安全地處理用戶請求。如果沒有更大程度的可解釋性和可驗證性,很難看出我們如何達到這種安全水準。

無人駕駛汽車產業一直押寶的「更多數據」,成功的可能性並不是那麼大。 Marcus在2016年的那次訪談中就這樣說過,現在他仍然這麼認為──大數據不足以解決機器人問題:

如果你想在家中擁有一個機器人— —我仍然幻想著Rosie機器人會給我做家事——你不能讓它犯錯。 [強化學習]很大程度是大規模的試誤。如果你家裡有一個機器人,你不能讓它多次撞到你的家具。你不希望它把你的貓放在洗碗機裡洗一次。你無法獲得相同規模的數據。對於現實環境中的機器人,我們需要的是讓它從少量資料中快速學習。

Google和EveryDay Robots後來知道了這一切,甚至還製作了一段搞笑影片來承認這一點。

但這並不能阻止部分媒體得意忘形。 用一個誇張的標題寫了這篇文章,美化了研究情況,說得好像一個關鍵問題已經解決了似的。

馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!

Google的新機器人透過「網頁抓取」學會聽指令

這讓人想起了2015 年雜誌上的兩篇文章,都是同樣的樂觀標題,和從未落地的項目。

馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!

Facebook宣布開啟M計劃,向Siri和Cortana發起挑戰

以及這篇—

馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!

深度學習馬上會讓我們擁有超級智慧的機器人

#後來的故事我們都知道了:Facebook M流產了,7 年來,沒有人可以以任何價格購買超級智慧的機器人。

誰相信誰是傻子

當然,Google的新機器人確實透過「網頁抓取」(scraping the web)學會了接受一些訂單,但機器人技術存在於細節中。

在理想的情況下,當機器人可選的選項數量有限時,性能大概在 75% 左右。機器人可選的動作越多,性能可能就越差。

Palm-SayCan 機器人只需要處理6個動詞;而人類的動詞有成千上萬。如果仔細閱讀Google的報告,就會發現,在某些操作上,系統的正確執行率為0%。

對於一個通用的類人家用機器人來說,75%還遠遠不夠。想像一下,一個家用機器人被要求將爺爺抬到床上,但四次只有三次成功。

沒錯,Google做了很酷的示範。但是離現實世界的產品,還遠著。

PaLM-SayCan提供了對未來的願景——在這個Jetsons一樣的系統中,我們可以與機器人交談,讓它們幫助完成日常瑣事。這是一個美好的願景。

但Marcus表示:但我們如果有誰——包括馬斯克——在「屏住呼吸」,期待這樣的系統在未來幾年內實現,那他就是傻子。

以上是馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除