5月22日消息,隨著生成式人工智慧等新科技成為科技界新熱潮,關於人工智慧是否會毀滅人類的爭論愈演愈烈。有知名科技領導者警告稱,人工智慧可能會接管整個世界。其他研究人員和高階主管則表示,這種說法是科幻小說。
在上週召開的美國國會聽證會上,人工智慧新創公司OpenAI執行長薩姆·奧爾特曼(Sam Altman)明確提醒大家,該公司公開的這項技術存在安全風險。
奧特曼警告說,ChatGPT聊天機器人等人工智慧技術可能會引發虛假資訊和惡意操縱等問題,並呼籲進行監管。
他表示,人工智慧可能「對世界造成嚴重傷害」。
奧特曼在美國國會作證之際,關於人工智慧是否會主宰世界的辯論正轉向主流,整個矽谷和致力於推廣人工智慧技術的人士意見不一、分歧也越來越大。
以前曾有個別人認為,機器的智力水平可能會突然超越人類,並決定毀滅人類,現在這種邊緣型想法正在獲得越來越多人的支持。有些權威科學家甚至都認為電腦學會超越人類並能控制人的時間將會縮短。
但許多研究人員和工程師表示,雖然不少人擔心現實中出現像電影《魔鬼終結者》中的天網那種殺手型人工智慧,但這種擔憂並不是基於合乎邏輯的好科學。相反地分散了人們對這種技術已經造成現實問題的注意力,包括奧特曼在證詞中所描述的問題。現在的人工智慧技術正在混淆版權,加劇人們對數位隱私和監控的擔憂,也可能被用來提高駭客突破網路防禦的能力。
Google、微軟以及OpenAI都已經公開發布突破性的人工智慧技術。這些技術可以與使用者進行複雜對話,並根據簡單文字提示產生圖像。關於邪惡人工智慧的爭論已經升溫。
「這不是科幻小說,」人工智慧教父、Google前員工傑弗瑞‧辛頓(Geoffrey Hinton)說。辛頓表示,比人類更聰明的人工智慧可能在5到20年內出現,而他先前的估計是30到100年。
「就好像外星人已經登陸地球或即將登陸,」他說。 「我們真的無法接受,因為它們講話流利,它們很有用,它們會寫詩,還會回覆無聊的信。但它們真的是外星人。」
#儘管如此,在大型科技公司內部,許多與這項技術有密切關係的工程師並不認為人工智慧取代人類是大家現在需要擔心的事情。
人工智慧新創公司Cohere旗下研究實驗室Cohere for AI主管、前谷歌研究員薩拉·胡克(Sara Hooker)說:「在積極從事這一學科的研究人員中,關注當前現實風險的人遠遠多於關注人類是否有生存風險的人。」
目前的現實風險很多,例如發布受過不良內容訓練的機器人會加深偏見和歧視等問題;人工智慧的絕大多數訓練資料用的都是英語,主要來自北美或歐洲,這可能會使互聯網更加偏離大多數人的語言和文化;這些機器人也經常編造虛假訊息,將其偽裝成事實;在某些情況下,它們甚至會陷入攻擊用戶的無限循環對話。此外,人們也不清楚這項技術帶來的連鎖反應,所有產業都在為人工智慧可能帶來的顛覆或變革做準備,甚至律師或醫生等高薪工作也會被取代。
也有人認為,未來人工智慧可能會傷害人類,甚至以某種方式控制整個社會。雖然事關人類生存的風險似乎更加嚴峻,但許多人認為,這種風險更難量化,也不那麼具體。
「有一群人認為,這些只是演算法。它們只是在重複網路上看到的內容。」今年4月份Google執行長桑德爾·皮查伊(Sundar Pichai)在接受採訪時表示: 「還有一種觀點認為,這些演算法正湧現出新特性,具有創造力、推理能力和規劃能力。」「我們需要審慎對待這件事。」
這場爭論源自於過去10年間電腦科學領域機器學習技術的不斷突破。機器學習創造出相關軟體和技術,可以在沒有人類明確指令的情況下,從大量資料中提取出新穎見解。這種技術在社交媒體演算法、搜尋引擎和圖像識別程式等各種應用中無處不在。
去年,OpenAI和其他幾家小公司開始陸續發布使用新機器學習技術的工具:生成式人工智慧。這種所謂的大語言模型用網上抓取的上萬億張照片和句子進行自我訓練後,可以根據簡單提示生成圖像和文本,與用戶開展複雜對話,並編寫計算機代碼。
未來生命研究所(Future of Life Institute)執行董事安東尼‧阿吉雷(Anthony Aguirre)說,大公司正在競相開發越來越聰明的機器,幾乎沒有任何監管。未來生命研究所成立於2014年,目的是研究社會存在的風險。在特斯拉執行長馬斯克(Elon Musk)的資助下,研究所於2015年開始研究人工智慧毀滅人類的可能性。
阿吉雷說,如果人工智慧獲得比人類更好的推理能力,它們就會試圖實現自我控制。這是值得人們擔心的,就像現在存在的現實問題一樣。 他說:「如何約束它們不偏離軌道,將變得越來越複雜。」「不少科幻小說已經說得很具體了。」今年3月份,阿吉雷幫忙寫了一封公開信,呼籲暫停訓練新的人工智慧模型6個月。這封公開信共獲得27,000位人士簽名支持,獲得2018年計算機科學最高獎項的資深人工智能研究員約書亞·本吉奧(Yoshua Bengio)和最具影響力的人工智能初創企業之一首席執行官埃馬德·莫斯塔克(Emad Mostaque)都名列其中。 馬斯克無疑是其中最引人注目的。他曾幫忙創建OpenAI,現在自己也在忙著組建人工智慧公司,最近投資了訓練人工智慧模型所需的昂貴電腦設備。 多年來馬斯克一直認為,人類應該對發展超級人工智慧的後果倍加小心。在上週特斯拉年度股東大會期間接受採訪時,馬斯克表示,自己當初之所以資助OpenAI,是因為他覺得谷歌聯合創始人拉里·佩奇(Larry Page)對人工智能的威脅“漫不經心” 。 美版知乎Quora也在開發自家人工智慧模型。公司執行長亞當·德安吉洛(Adam D’angelo)沒有在公開信上簽名。他談到這封公開信時說,「人們提出這項建議時有各自不同的動機。」OpenAI執行長奧爾特曼也不認同公開信內容。他表示,自己同意這封公開信的部分內容,但總體上缺乏“技術細節”,並不是監管人工智慧的正確方式。奧爾特曼在上週二舉行的人工智慧聽證會上表示,他公司的做法是儘早向大眾推出人工智慧工具,以便在科技變得更強大之前發現和解決問題。 但科技界有關殺手型機器人的爭論越來越多。其中一些最嚴厲的批評來自多年來一直研究這項技術缺陷的研究人員。 2020年,Google研究人員蒂姆尼特·格布魯(Timnit Gebru)和瑪格麗特·米切爾(Margaret Mitchell)與華盛頓大學學者艾米麗·M·本德( Emily M. Bender)和安潔莉娜·麥克米蘭-梅傑(Angelina McMillan-Major)合作撰寫了一篇論文。他們認為,大語言模型模仿人類的能力不斷增強,這加劇了人們會認為它們是有感情的風險。 相反,他們認為這些模型應該被理解為“隨機的鸚鵡學舌”,或者說僅僅是非常擅長純粹根據概率預測句子接下來會出現哪一個單詞,而不需要理解自己在說什麼。其他批評者則稱大語言模型為「自動補全」或「知識灌腸」。 他們詳細記錄了大語言模型如何照本宣科地產生性別歧視等不良內容。格布魯說,這篇論文曾被Google壓下來了。在自己堅持公開發表這篇文章後,谷歌解雇了她。幾個月後,公司又解雇了米切爾。 這篇論文的四位合作者也寫了一封信,以回應馬斯克等人簽名的公開信。他們說:「用一個幻想中的人工智慧烏托邦或世界末日來分散我們的注意力很危險。」「相反,我們應該關注那些開發公司非常真實、非常現實的剝削行為,這些公司正在迅速集中力量,加劇社會不平等。」
Google當時拒絕就格布魯被解僱一事發表評論,但表示仍有許多研究人員在研究負責任和合乎道德的人工智慧。
「毫無疑問,現代人工智慧是強大的,但這並不意味著它們對人類生存的威脅迫在眉睫,」Cohere公司人工智慧研究主管胡克說。
目前,關於人工智慧擺脫人類控制的大部分討論都集中在其如何迅速克服自身的限制上,就像《魔鬼終結者》中的天網一樣。
胡克說:「大多數技術和技術中存在的風險都是逐步變化的。」「目前存在的技術限制加劇了大多數風險。」
去年,Google解僱了人工智慧研究員布萊克·萊蒙(Blake Lemoine)。他在受訪時曾表示,自己堅信Google的LaMDA人工智慧模型具有感知能力。當時,萊蒙遭到了業內許多人的嚴厲斥責。但一年後,科技界也有不少人開始接受他的觀點。
前谷歌研究員辛頓說,直到最近使用了最新的人工智慧模型之後,自己改變了對這項技術潛在危險的既定看法。辛頓向電腦程式提出一些複雜的問題,在他看來,這些問題需要人工智慧模型能大致理解他的請求,而不僅僅是根據訓練資料預測可能的答案。
今年3月份,微軟研究人員表示,在研究OpenAI的最新模型GPT4時,他們觀察到了“通用人工智慧的火花”,其指的就是能夠像人類一樣獨立思考的人工智慧。
微軟已經花了數十億美元與OpenAI合作開發必應聊天機器人。質疑者認為,微軟正在圍繞人工智慧技術打造自己的公眾形象。人們總認為這種技術比實際情況更先進,微軟可以從中獲益良多。
微軟研究人員在論文中認為,這項技術僅僅基於所訓練的文本內容,就已經發展出對世界空間和視覺的理解。 GPT4可以自動畫出獨角獸,並描述如何將包括雞蛋在內的隨機物體堆疊在一起,讓雞蛋不會破碎。
微軟研究團隊寫道:「除了掌握語言之外,GPT-4還可以解決涉及數學、程式設計、視覺、醫學、法律、心理學等領域的各種複雜新問題,而且不需要任何特殊提示。」他們總結說,人工智慧在許多領域的能力與人類相當。
不過其中一位研究人員承認,儘管人工智慧研究人員曾嘗試制定量化標準來評估機器的智慧程度,但如何定義「智慧」依舊非常棘手。
他說,「它們都存在問題或有爭議。」
以上是矽谷熱辯:AI是否會毀滅人類?的詳細內容。更多資訊請關注PHP中文網其他相關文章!