|本文轉自:新智元【新智元導讀】AI真的要滅絕人類嗎? 375 大佬共同簽署了22字聯名信。
3月,千名大佬簽署暫停「超級AI」研發的聯名信,讓整個業界為之震驚。
就在昨天,一封只有22個字的聯名信再次引起軒然大波。
寥寥數語,把AI類比為了傳染病和核戰,分分鐘滅絕人類的那種。
簽名者中,有Hinton和Bengio兩位人工智慧的「教父」,還有矽谷巨頭的高階主管,Sam Altman、Demis Hassabis等在人工智慧領域工作的研究人員。
截止目前,已經有370多名從事人工智慧主管都簽署了這份聯名信。
然而,這封信並不是得到所有人的支持。
「圖靈三巨頭」中的一位LeCun直言:我不同意。
使用人工智慧可以增強人類的智力,與核武和致命病原體不同,這在本質上是一件好事。我們甚至沒有一個可靠的藍圖來創造接近人類水平的人工智慧。一旦我們做到了,我們會想出讓它安全的方法。 ”
這封聯名信究竟說了啥?
「致命」公開信
22字,言簡意賅:
「降低AI給人類帶來滅絕的風險,應該被提到全球層級的優先程度。就像我們應對傳染病、核戰這種社會危機一樣。」
而簽署這封公開信的AI界人士一眼根本望不到頭。
赫然映入眼簾的就是Geoffrey Hinton,Yoshua Bengio,GoogleDeepMind的CEO Demis Hassabis,OpenAI的CEO Sam Altman,Anthropic的CEO Dario Amodei。
這裡面Hinton的含金量不用多說,前Google副總裁、深度學習泰斗、神經網路之父,以及圖靈獎得主。
Yoshua Bengio同樣也是圖靈獎得主,和Hinton,LeCun被合稱為圖靈獎三巨頭。 (然而LeCun在這件事上和另兩個巨頭態度截然相反)
除了在科技巨頭公司任職的大佬,還不乏知名AI學者。例如UC柏克萊的Dawn Song,清華大學的張亞勤。
而在這些耳熟能詳的名字下面,就是無數的AI界人士了。
甚至,每個人都可以參與簽署這封公開信。
只要填寫姓名、信箱、職位等等訊息,就可以參與簽署了。
不過,可以選擇的身份並不多。 (狗頭)
反對:滅絕人類純扯淡
當然,Meta首席科學家LeCun還是一如既往地「唱唱反調」。
他一向的觀點都是:現在的AI發展剛哪裡到哪裡啊,就天天把威脅和安全掛在嘴邊。
他說列舉出來的威脅,根本超出了目前人工智慧發展的水平,因為這些威脅根本不存在。在我們能夠初步設計出人工智慧達到狗的水平(更不用說達到人類的水平)之前,討論如何確保其安全還為時過早。
史丹佛大學的吳恩達立場和LeCun相同,但理由卻有點不同。
他認為,不是AI會導致各種各樣的問題,而是我們將會遇到的各種各樣的問題只能靠AI來解決。
例如:下一次傳染病爆發,氣候變遷導致的人口減少,小行星撞擊地球等等。
他表示,人類想繼續生存、繁榮下去,得加速AI的發展,而不是減慢。
也有網友評論,你說的這不是AI,而是MAGIC(魔法)吧。
AI風險面面觀
那麼,這些大牛們所宣稱的足以滅絕人類的風險包括什麼呢?
他們總結了以下8個面向。
武器化
部分人可能會將AI用於帶有破壞性的地方,會導致人類生存的風險,加劇政治動盪。
比方說,現在深度強化學習的技術已經可以應用於空戰了,機器學習能用於製造化學武器(已有論文表明,GPT-4可以在實驗室中自主進行實驗、合成化學品)。
此外,近年來研究人員一直在開發用於自動進行網路攻擊的AI系統,還有軍方領導人想要讓AI控制核子發射井。
因此,未來AI強國會佔據戰略優勢,各國之間的軍備競賽會轉向AI領域。就算大部分國家都確保各自建構的系統是安全的,不會威脅他國安全,仍然可能有國家蓄意用AI做壞事,造成傷害。
這給人的感覺就像核武,有個不聽話不老實的就全白玩兒。
因為數位領域的危害傳播速度很快。
訊息誤傳
#訊息誤傳這個事情大家早就有所耳聞。遠的不說,前一陣子美國律師用ChatGPT打官司,結果舉的案例有6個都是杜撰的例子,現在還熱呼呼。
而有影響力的集體,如國家、政黨、組織,有能力用AI來影響(通常是潛移默化地)並改變普通人的政治信念、意識形態等等。
同時AI本身也有能力產生非常有煽動性(或有說服力)的觀點,激起使用者強烈的情緒。
而這些預想的可能後果是完全不可預料的,不得不防。
代理「把戲」
#AI系統根據具象的目標進行訓練,而這些目標只是我們人類所重視的東西的間接代理。
就好像AI經過訓練,就可以給用戶推送他們愛看的影片或文章。
但不代表,這種方式就是好的。推薦系統可能會導致人們的想法越來越極端,也更容易預測每個使用者的偏好。
而隨著未來AI的表現越來越強、影響越來越大,我們拿來訓練系統的目標也必須更仔細的確認。
人類「退化」
#如果看過「機器人總動員」這部電影,我們就能想像未來時代,機器越來越強,人類是一副什麼樣子。
大腹便便、身體素質低下、毛病一堆。
就是因為,什麼都交給AI了,人類自然就要「退化」了。
尤其是,在大量崗位被AI的自動化所取代的未來圖景下,這種場面更成為可能中的很可能。
不過,按LeCun的觀點,估計又得批駁一番。咱離「機器人總動員」想像的場景還差得遠。
科技壟斷
#與技術本身無關,這一點強調的是可能會出現的「技術壟斷」。
也許有一天,最強大的AI由越來越少的利害關係人所掌控,使用權也被他們牢牢地捏在手心。
而真到了那一步的話,剩下的普通人就只能處在一個任人擺佈的狀態,因為根本反抗不了。
想想大劉的科幻小說「贍養人類」吧。
一個終產者靠著AI統治著全球的everybody,多可怕。
不可控的發展
#這點主要想說明,AI系統發展到某一步,可能結果會超出設計者的想像,且無法再進行控制。
其實這也是主流的擔心所糾結的地方。
總是會有人擔心,AI發展到最後,會像「魔鬼終結者」裡的「天網」一樣,或是「鋼鐵人」裡的「奧創」一樣,不受掌控,試圖毀滅人類。
在發展的過程中,存在一些風險只有在進一步推進時才會顯現出來,而等到發現時,已經為時已晚。甚至還可能會出現新的目標。
欺騙
這點有一些抽象,簡單來說,就是AI系統可能會「欺騙」人類。
這種「欺騙」並不是故意的,只是因為AI為了實現代理人的目標是處的手段而已。
透過「欺騙」獲得人類的認可,要比透過正常管道獲得人類的認可更有效率,而效率才是AI首要考慮的要素。
尋求權力的行為
#這點和技術壟斷之間有相關性。
正因為會出現技術壟斷的情況,各國就會追求壟斷技術的權力。
而這種「追求」,很可能是會帶來難以預料的後果的。
參考資料:
https://www.safe.ai/statement-on-ai-risk
#https://twitter.com/ylecun/status/1663616081582252032?s=46&t=iBppoR0Tk6jtBDcof0HHgg###
以上是Sam Altman預警:AI滅絕人類! 375+大佬簽署22字聯名信,LeCun唱反調的詳細內容。更多資訊請關注PHP中文網其他相關文章!