前兩天, 谷歌搞了一個機器人方面的新研究-PaLM-SayCan。
簡單來說就是,「你已經是個成熟的機器人了,可以自己學會服務我了。」
但馬庫斯不這麼認為。
我懂了,你們要做一個「終結者」出來
從表演節目來看,Google的新機器人PaLM-SayCan確實很酷炫。
人類說一句,機器人聽一句,立刻行動不帶猶豫。
這款機器人可是相當“懂事”,你不用硬邦邦地說一句“從廚房裡給我拿來椒鹽捲餅”,只要說一句“我餓了”,它就會自己走到桌子旁,然後給你拿零食。
不需要多餘的廢話,不需要更多細節。 馬庫斯(Marcus)承認:它真的是我見過的最接近 Rosie the Robot的機器人。
從這個專案可以看出,Alphabet歷來獨立的兩個部門——Everyday Robots和Google Brain,投入了許多精力。參與計畫的Chelsea Finn和Sergey Levine都是學術大牛。
很顯然,Google投入了大量的資源(例如大量的預訓練語言模型和類人機器人以及大量的雲端運算),才造出來這麼牛掰的機器人。
Marcus對此表示:我絲毫不驚訝他們能把機器人造得這麼好,我只是有些擔心──我們是否應該這麼做?
Marcus認為,有兩個問題。
「瓷器店裡的公牛」
首先,就是眾所周知的,這個新系統所依賴的語言技術,本身就有問題;其次,在機器人的背景下,問題可能會更大。
暫且不說機器人,我們已經知道所謂的大語言模型就像公牛一樣——厲害、強大、魯莽地在瓷器店裡橫衝直撞。他們可以在一瞬間直接瞄準目標,然後轉向未知的危險。一個特別生動的例子來自法國Nabla 公司,該公司探索了GPT-3作為醫療顧問的效用:
像這樣的問題不勝枚舉。
Alphabet 的另一家子公司DeepMind就提出了 21 個大型語言模式的社會和倫理問題,涉及公平、資料外洩和資訊等主題。
#論文網址:https://arxiv.org/pdf/2112.04359.pdf
但是他們卻沒提這一點:被某些模型嵌入的機器人,有可能會把您的寵物幹掉,或毀掉您的房子。
我們真的應該重視這一點。 PaLM-SayCam實驗清楚地表明,有21個問題需要更新。
例如大型語言模型會建議人自殺,或是簽署種族滅絕協定,或它們可能帶毒。
而且它們對訓練集的細節非常(過度)敏感——當你把這些訓練集放進機器人裡,如果他們誤解了你,或者沒有充分理解你要求的含義,他們可能會給你帶來大麻煩。
值得稱讚的是,PaLM-SayCan 的工作人員至少能想到預防這種情況的發生。
對於機器人那裡傳來的每一個請求,他們都會進行一種可行性檢查:語言模型推斷出使用者想要做的這件事,是否真的可以完成。
但這就萬無一失了嗎?如果使用者要求系統將貓放入洗碗機,這的確是可行的,但安全嗎?合乎道德嗎?
如果系統誤解了人類,也會發生類似的問題。
例如,如果人們說「把它放在洗碗機裡」,而大語言模型將「它」的指涉物件視為單字cat,而使用者指的是別的東西。
從對大型語言模型的所有研究中,我們會了解到:它們根本就不夠可靠,無法讓我們100%地清楚了解使用者的意圖。誤解是無法避免的。如果不對這些系統進行真正嚴格的檢查,其中一些誤解可能會導致災難。
Maayan Harel 為Rebooting AI畫了這個很棒的插圖,機器人被告知要把客廳裡的所有東西都收起來:
還記得《愛,死亡,機器人》原著第三部中,那個要求主人把貓丟向發狂的掃地機器人的故事麼。
與真實世界的鴻溝
現實的情況是,目前就是沒有可行的辦法能夠解決許多困擾大型語言模型的「alignment」問題。
正如Marcus在先前提到的:大型語言模型只是膚淺的統計模擬,而不是傳遞它們周圍世界的豐富認知的模型。在對世界知之甚少的語言系統上建立機器人,是不可能成功的。
而這正是Google的新系統正在做的事:將膚淺、不可救藥的語言理解器與強大且具有潛在危險的人形機器人縫合在一起。俗話說,垃圾進,垃圾出(garbage in, garbage out)。
要記住,演示與現實之間通常存在著巨大的鴻溝。
無人駕駛汽車演示已經存在了幾十年,但事實證明,讓它們可靠地工作比我們想像的要困難得多。
Google共同創辦人謝爾蓋布林在2012年就承諾,我們會在2017年用上無人駕駛汽車;現在到了2022年,它們仍然處於有限的實驗測試階段。
Marcus在2016年就曾警告過,核心問題是邊緣情況:
無人駕駛汽車在常見的情況下,是表現很棒。如果你把它們放在帕洛阿爾託的晴朗天氣裡,它們就很棒。如果你把它們放在有雪或有雨的地方,或者它們以前沒見過的地方,對它們來說就很難了。 Steven Levy 有一篇關於谷歌自動汽車工廠的精彩文章,他談到了2015年底的巨大勝利是他們終於讓這些系統識別樹葉了。系統能辨識樹葉,很好,但還有一些不那麼常見的東西,就沒那麼多數據了。
這仍然是核心問題。直到最近幾年,無人駕駛汽車產業才意識到這個現實。正如 Waymo AI/ML 工程師 Warren Craddock 最近在一個應該完整閱讀的線程中所說的那樣:
事實就是:有無數種邊緣情況。有無數不同的萬聖節服裝。闖紅燈的速度是連續的。無法枚舉邊緣情況。即使可以列舉邊緣情況,也無濟於事!
而且,最重要的是-
#當明白邊緣情況在本質上也是無限的,你就可以看到問題有多複雜了。深度網路的本質——它們的基本機制——意味著邊緣情況很容易被遺忘。你不能只體驗一次邊緣案例,然後讓它消失。
沒有理由認為,機器人或具有自然語言介面的機器人(例如Google的新系統)可以免除這些問題。
可解釋性問題
還有一個問題是可解釋性。
Google對讓系統如何在一定程度上可解釋做了很大的努力,但沒有找到明顯的方法,將大型語言模型與那種(在微處理器、 USB 驅動程式和大型飛機設計中常用的形式驗證方法)結合在一起。
對,使用GPT-3 或PaLM 寫超現實散文無需通過驗證;你也可以欺騙Google 工程師,讓他們相信你的軟體是有感知的,而無需確保系統是連貫的或正確的。
但是,處理各種家務的類人家庭機器人(不僅僅是Roomba 的吸塵器)需要做的,不僅僅是與用戶社交,它們還需要可靠、安全地處理用戶請求。如果沒有更大程度的可解釋性和可驗證性,很難看出我們如何達到這種安全水準。
無人駕駛汽車產業一直押寶的「更多數據」,成功的可能性並不是那麼大。 Marcus在2016年的那次訪談中就這樣說過,現在他仍然這麼認為──大數據不足以解決機器人問題:
如果你想在家中擁有一個機器人— —我仍然幻想著Rosie機器人會給我做家事——你不能讓它犯錯。 [強化學習]很大程度是大規模的試誤。如果你家裡有一個機器人,你不能讓它多次撞到你的家具。你不希望它把你的貓放在洗碗機裡洗一次。你無法獲得相同規模的數據。對於現實環境中的機器人,我們需要的是讓它從少量資料中快速學習。
Google和EveryDay Robots後來知道了這一切,甚至還製作了一段搞笑影片來承認這一點。
但這並不能阻止部分媒體得意忘形。
Google的新機器人透過「網頁抓取」學會聽指令
這讓人想起了2015 年
Facebook宣布開啟M計劃,向Siri和Cortana發起挑戰
以及這篇—
深度學習馬上會讓我們擁有超級智慧的機器人
#後來的故事我們都知道了:Facebook M流產了,7 年來,沒有人可以以任何價格購買超級智慧的機器人。
誰相信誰是傻子
當然,Google的新機器人確實透過「網頁抓取」(scraping the web)學會了接受一些訂單,但機器人技術存在於細節中。
在理想的情況下,當機器人可選的選項數量有限時,性能大概在 75% 左右。機器人可選的動作越多,性能可能就越差。
Palm-SayCan 機器人只需要處理6個動詞;而人類的動詞有成千上萬。如果仔細閱讀Google的報告,就會發現,在某些操作上,系統的正確執行率為0%。
對於一個通用的類人家用機器人來說,75%還遠遠不夠。想像一下,一個家用機器人被要求將爺爺抬到床上,但四次只有三次成功。
沒錯,Google做了很酷的示範。但是離現實世界的產品,還遠著。
PaLM-SayCan提供了對未來的願景——在這個Jetsons一樣的系統中,我們可以與機器人交談,讓它們幫助完成日常瑣事。這是一個美好的願景。
但Marcus表示:但我們如果有誰——包括馬斯克——在「屏住呼吸」,期待這樣的系統在未來幾年內實現,那他就是傻子。
以上是馬庫斯懟馬斯克:你還想做全能家用機器人,挺蠢!的詳細內容。更多資訊請關注PHP中文網其他相關文章!

經常使用“ AI-Ready勞動力”一詞,但是在供應鏈行業中確實意味著什麼? 供應鏈管理協會(ASCM)首席執行官安倍·埃什肯納齊(Abe Eshkenazi)表示,它表示能夠評論家的專業人員

分散的AI革命正在悄悄地獲得動力。 本週五在德克薩斯州奧斯汀,Bittensor最終遊戲峰會標誌著一個關鍵時刻,將分散的AI(DEAI)從理論轉變為實際應用。 與閃閃發光的廣告不同

企業AI面臨數據集成挑戰 企業AI的應用面臨一項重大挑戰:構建能夠通過持續學習業務數據來保持準確性和實用性的系統。 NeMo微服務通過創建Nvidia所描述的“數據飛輪”來解決這個問題,允許AI系統通過持續接觸企業信息和用戶互動來保持相關性。 這個新推出的工具包包含五個關鍵微服務: NeMo Customizer 處理大型語言模型的微調,具有更高的訓練吞吐量。 NeMo Evaluator 提供針對自定義基準的AI模型簡化評估。 NeMo Guardrails 實施安全控制,以保持合規性和適當的

AI:藝術與設計的未來畫卷 人工智能(AI)正以前所未有的方式改變藝術與設計領域,其影響已不僅限於業餘愛好者,更深刻地波及專業人士。 AI生成的藝術作品和設計方案正在迅速取代傳統的素材圖片和許多交易性設計活動中的設計師,例如廣告、社交媒體圖片生成和網頁設計。 然而,專業藝術家和設計師也發現AI的實用價值。他們將AI作為輔助工具,探索新的美學可能性,融合不同的風格,創造新穎的視覺效果。 AI幫助藝術家和設計師自動化重複性任務,提出不同的設計元素並提供創意輸入。 AI支持風格遷移,即將一種圖像的風格應用

Zoom最初以其視頻會議平台而聞名,它通過創新使用Agentic AI來引領工作場所革命。 最近與Zoom的CTO XD黃的對話揭示了該公司雄心勃勃的願景。 定義代理AI 黃d

AI會徹底改變教育嗎? 這個問題是促使教育者和利益相關者的認真反思。 AI融入教育既提出了機遇和挑戰。 正如科技Edvocate的馬修·林奇(Matthew Lynch)所指出的那樣

美國科學研究和技術發展或將面臨挑戰,這或許是由於預算削減導致的。據《自然》雜誌報導,2025年1月至3月期間,美國科學家申請海外工作的數量比2024年同期增加了32%。此前一項民意調查顯示,75%的受訪研究人員正在考慮前往歐洲和加拿大尋找工作。 過去幾個月,數百項NIH和NSF的撥款被終止,NIH今年的新撥款減少了約23億美元,下降幅度接近三分之一。洩露的預算提案顯示,特朗普政府正在考慮大幅削減科學機構的預算,削減幅度可能高達50%。 基礎研究領域的動盪也影響了美國的一大優勢:吸引海外人才。 35

Openai推出了強大的GPT-4.1系列:一個專為現實世界應用設計的三種高級語言模型家族。 這種巨大的飛躍提供了更快的響應時間,增強的理解和大幅降低了成本


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

EditPlus 中文破解版
體積小,語法高亮,不支援程式碼提示功能

Atom編輯器mac版下載
最受歡迎的的開源編輯器

MinGW - Minimalist GNU for Windows
這個專案正在遷移到osdn.net/projects/mingw的過程中,你可以繼續在那裡關注我們。 MinGW:GNU編譯器集合(GCC)的本機Windows移植版本,可自由分發的導入函式庫和用於建置本機Windows應用程式的頭檔;包括對MSVC執行時間的擴展,以支援C99功能。 MinGW的所有軟體都可以在64位元Windows平台上運作。

Dreamweaver CS6
視覺化網頁開發工具

SecLists
SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。