為了獲得對人工智慧的真正理解,研究人員應該把注意力轉移到開發一種基本的、潛在的AGI技術上,這種技術可以複製人類對環境的理解。
Google、微軟和Facebook 等產業巨頭,Elon Musk 的OpenAI 等研究實驗室,甚至SingularityNET 等平台都在押注通用人工智慧(AGI)——智慧代理理解或學習人類無法完成的任何智力任務的能力,這代表了人工智慧技術的未來。
然而,有點令人驚訝的是,這些公司都沒有專注於開發一種基本的、底層的 AGI 技術來複製人類的上下文理解。這可能解釋了為什麼這些公司正在進行的研究完全依賴具有不同程度特異性並依賴當今人工智慧演算法的智慧模型。
不幸的是,這種依賴意味著,人工智慧充其量只能表現出智慧。無論他們的能力多麼令人印象深刻,他們仍然遵循包含許多變數的預定腳本。因此,即使是GPT3或 Watson 等大型、高度複雜的程序也只能表現出理解能力。實際上,他們不理解文字和圖像代表了物理宇宙中存在並相互作用的物理事物。時間的概念或原因產生影響的想法對他們來說是完全陌生的。
這不是要剝奪今天人工智慧的能力。例如,谷歌能夠以令人難以置信的速度搜索大量信息,以提供用戶想要的結果(至少大多數時候是這樣)。 Siri等個人助理可以預訂餐廳、尋找和閱讀電子郵件,並即時給予指示。這個清單還在不斷擴展和改進中。
但無論這些程式多麼複雜,它們仍在尋找輸入並做出完全依賴其核心資料集的特定輸出回應。如果不相信,請向客戶服務機器人詢問一個「計劃外」的問題,該機器人可能會產生一個毫無意義的回應或根本沒有回應。
總之,Google、Siri或任何其他目前的AI例子都缺乏真正的、常識性的理解,這最終將阻止它們向人工通用智能(Artificial General Intelligence)發展。原因可以追溯到過去50年大多數人工智慧發展的主要假設,即如果困難的問題能夠解決,簡單的智慧問題就會解決。這個假設可以用莫拉維克悖論(Moravec's Paradox)來形容,它認為,讓電腦在智力測驗中表現出成人水平的表現相對容易,但在感知和行動能力方面,讓它們具備一歲嬰兒的技能卻很難。
人工智慧研究人員的假設也是錯誤的,他們認為,如果建構了足夠多的狹義人工智慧應用,它們最終將共同成長為通用智慧。與兒童可以毫不費力地整合視覺、語言和其他感官的方式不同,狹義的AI應用無法以一種通用的方式存儲信息,從而允許信息被共享並隨後被其他AI應用使用。
最後,研究人員錯誤地認為,如果可以建立一個足夠大的機器學習系統和足夠的電腦能力,它就會自發性地表現出通用智慧。這也被證明是錯的。正如試圖獲取特定領域知識的專家系統無法創建足夠的案例和範例資料來克服潛在的缺乏理解一樣,人工智慧系統也無法處理「非計劃內的」請求,無論其規模有多大。
為了獲得真正的人工智慧理解,研究人員應該將注意力轉移到開發一種基本的、潛在的AGI 技術,以複製人類對上下文的理解。例如,考慮一個 3 歲兒童玩積木時表現出的情境意識和情境理解。 3 歲的孩子明白積木存在於三維世界中,具有重量、形狀和顏色等物理特性,如果堆疊得太高會掉下來。孩子也理解因果關係和時間流逝的概念,因為積木在首先被堆疊之前不能被擊倒。
3 歲也可以變成 4 歲,然後是 5 歲,最後是 10 歲,以此類推。簡而言之,3 歲兒童的能力與生俱來,包括成長為功能齊全、普遍聰明的成年人的能力。對於今天的人工智慧來說,這樣的成長是不可能的。不管它多麼複雜,今天的人工智慧仍然完全不知道它在其環境中的存在。它不知道現在採取的行動會影響未來的行動。
雖然認為一個從未經歷過自身訓練資料之外的任何事情的人工智慧系統能夠理解現實世界的概念是不現實的,但為人工智慧添加移動感覺艙可以讓人工實體從現實環境中學習,並展現出對現實中物理對象、因果關係和時間流逝的基本理解。就像那個3歲的孩子一樣,這個配備了感覺艙的人工實體能夠直接學習如何堆疊積木、移動物體、隨著時間的推移執行一系列的行動,並從這些行動的後果中學習。
透過視覺、聽覺、觸覺、操縱器等,人工實體可以學習以純文字或純圖像系統根本不可能的方式進行理解。如前所述,無論它們的資料集有多大和多變,這樣的系統根本無法理解和學習。一旦實體獲得了這種理解和學習的能力,甚至有可能移除感覺莢。
雖然在這一點上,我們無法量化需要多少數據來表示真正的理解,但我們可以推測,大腦中一定有一個合理的比例與理解有關。畢竟,人類是在已經經歷和學習過的一切事物的背景下解釋一切事物的。作為成年人,我們用生命最初幾年學到的知識來解釋一切。考慮到這一點,似乎只有AI社群認識到這一事實,並採取必要步驟建立基本的理解基礎,真正的人工通用智慧才有可能完全出現。
以上是人工智慧的未來:通用人工智慧的詳細內容。更多資訊請關注PHP中文網其他相關文章!