目前的人工智慧(AI)處在一個奇妙的時代,時常會出現讓人驚嘆的隱性知識(Polanyi 的複仇和人工智慧的新型浪漫與隱性知識,https://bit.ly/3qYrAOY),但可以確信在未來相當長的一段時間,電腦無法完成這個任務。最近出現的令人感興趣的研究是基於 Transformer 架構的大型學習系統,基於大網路規模的多模態語料庫和數十億參數的訓練。典型例子如大型語言模型、響應任意形式文字 prompt 的 GPT3 和 PALM、將文字轉換成圖像的語言 / 圖像模型 DALL-E 和 Imagen(甚至具有通用行為的模型如 GATO)。
大型學習模式的出現從根本上改變了人工智慧研究的性質。最近研究人員在使用 DALL-E 時,認為它似乎已經發展出自己的特有語言,如果人類能掌握它,或許可以更好地與 DALL-E 互動。也有研究人員發現,可以透過在 prompt 中加入某些神奇的咒語(例如「讓我們一步步地思考」)來改善 GPT3 對推理問題的表現。現在像 GPT3 和 DALL-E 這樣的大型學習模型就像是「外星物種」一樣,我們要嘗試解碼它們的行為。
對於人工智慧來說,這無疑是一個奇怪的轉捩點。自出現以來,人工智慧一直是介於工程學(特定功能的系統)和科學(發現自然現象規律)之間的「無人區」地帶。人工智慧的科學部分源自於其最初的主張,即對人類智慧本質的洞察;而工程部分則源自於對智慧功能(讓電腦展現智慧行為)的關注,而非對人類智慧的洞見。
而目前的情況正在迅速變化,特別是人工智慧已成為大型學習模型的同義詞。目前的現狀是,人們對於訓練過的模型是如何擁有特定功能一無所知,甚至它們可能具有的其它功能一無所知(如 PALM 所謂的「解釋笑話」的能力)。即使是它們的創造者,通常也對這些系統所能做的事情始料不及。探索這些系統以了解其「功能」範圍,已成為近來人工智慧研究的趨勢。
越來越清楚的是,部分人工智慧正偏離其工程本源。如今很難將大型學習系統視為傳統意義上有特定目標的工程設計。畢竟人們不能說自己的孩子是「設計」出來的。工程學領域通常不會為設計的系統出現意料之外的新特性而慶祝(就如同土木工程師不會因為他們設計的抵禦五級颶風的橋樑被發現還能懸浮而激動興奮的慶祝)。
越來越多地證據表明,這些經過訓練(但未經設計)的大型系統的研究注定要成為自然科學:觀察系統的功能;做消融研究;對最佳實踐進行定性的分析。
考慮到目前研究表象而非內裡的事實,這類似於生物學中想在沒有實際證據的情況下達到「弄清楚」的宏偉目標。機器學習屬於研究工作,更專注於系統為什麼會做它正在做的事情(可以想像成對大型學習系統做「核磁共振成像」研究),而不是證明設計系統就是為了這樣做。這些研究收穫的知識能提升微調系統的能力(就像醫學一樣)。當然表象的研究允許比內裡設定進行更具針對性的干預。
人工智慧變成自然科學,也會對整個電腦科學產生影響,考慮到人工智慧對幾乎所有運算領域都產生巨大影響。計算機科學的“科學”二字也曾受到質疑和諷刺。但現在情況已經改變,因為人工智慧已經成為研究大型人工學習系統的自然科學。當然,這一轉變可能存在很大的阻力和意見,因為計算機科學長期以來一直是“建構修正的方法(correct by construction)”聖杯,從最開始計算機科學就相當於生活在充滿激勵的系統中,它像訓練有素的狗不犯錯,就像人類一樣正確。
早在 2003 年,圖靈獎得主 Leslie Lamport 對計算未來屬於生物學而非邏輯的可能性敲響警鐘,稱電腦科學將讓我們生活在順勢療法和信仰療癒的世界。當時他的焦慮主要是針對人類透過程式設計完成的複雜軟體系統,而不是現在更神秘的大型學習模型。
當從一個主要關注有意設計和「透過構造保證正確」的領域,轉向試圖探索或理解現有的(未經設計的)人工產物,它將帶來的方法學轉變值得思考。與生物學研究野外生物不同,人工智慧研究人類創造的缺乏「設計感」的人工產物,對於創造和部署那些不被理解的人工產物,倫理問題是肯定會出現的。大型學習模型不太可能保證支援可證明的能力,無論是關於準確性、透明度還是公平性,然而這些都是部署和實踐這些系統的關鍵問題。雖然人類也無法提供關於自身決定和行為正確性的證據,但確實有法律制度來讓人類遵守懲罰,如罰款、譴責甚至監禁。而對於大型學習系統,有什麼是等價的製度?
計算研究的美學也會改變。目前的研究者可以用論文中包含定理與定義的比例來評估論文。但隨著電腦科學的目標,越來越像生物學等自然科學的目標,就需要發展新的計算美學方法論(因為零定理與零定義比例不會有很大的差異)。有跡象表明,計算複雜度分析在人工智慧研究中已處於次要地位。
以上是大模型鋪天蓋地出現後,電腦科學終成「自然科學」的詳細內容。更多資訊請關注PHP中文網其他相關文章!