5月4日訊息,建構當今人工智慧基礎技術的「大牛」紛紛發出警告,表示該技術存在潛在的危險。然而,他們目前尚未就人工智慧的危險性或預防措施達成共識。
傑弗裡·辛頓(Geoffrey Hinton)被稱為“人工智慧教父”,他剛剛宣布從谷歌離職。他對自己的部分工作感到後悔,因為他擔心機器會變得比人類更聰明,進而危及人類生存。
蒙特利爾大學教授約書亞·本吉奧(Yoshua Bengio)是另一位人工智慧領域的先驅。他與辛頓以及Meta首席人工智慧科學家楊立坤(Yann LeCun)因在人工神經網路領域取得突破而獲得了2018年圖靈獎,這些突破對當今人工智慧應用程式(例如ChatGPT)的發展至關重要。週三,本吉奧表示,他「非常贊同」辛頓對聊天機器人(例如ChatGPT及其相關技術)的擔憂,但他擔心,僅僅簡單地說「我們注定要失敗」並不能解決問題。
本吉歐補充說:「主要的區別在於,他(辛頓)是個悲觀的人,而我則更樂觀。我確實認為,不論是短期的還是長期的,這些危險都非常嚴重,不僅需要少數的研究人員認真對待,而且需要政府和民眾認真對待。」
有許多跡象表明,各國政府正在傾聽各方聲音。白宮已經召集了谷歌、微軟和ChatGPT製造商OpenAI的首席執行官們,與美國副總統卡瑪拉·哈里斯(Kamala Harris)在周四舉行了一次“坦誠”的討論,重點是如何緩解其技術的短期和長期風險。歐洲立法者也在加快談判,以通過全面的人工智慧監管規則。
而有些人則擔心,過度炒作尚不存在的超級智慧機器,幻想著它能造成最可怕的危險,會分散人們對當前人工智慧產品製定切實保障措施的注意力,而這些產品往往沒有受到監管。
在谷歌人工智慧倫理團隊前負責人瑪格麗特·米切爾(Margaret Mitchell)看來,她對辛頓在谷歌掌權的十年裡沒有直言不諱這一點感到不安,特別是在著名黑人科學家蒂姆尼特·格布魯(Timnit Gebru)2020年被解僱之後。格布魯曾在大型語言模型被廣泛商業化到ChatGPT和谷歌Bard等產品之前,研究過它們的危害。
在格布魯離職後,米切爾也被迫離開了Google。她說:「她(格布魯)幸運地跳出了歧視傳播的圈子,仇恨語言的傳播、對女性的貶低和未經雙方同意的色情內容,所有這些問題都在傷害著科技領域被邊緣化的人們。她跳過了所有這些事情,可以去擔心更遙遠的事情。」
2018年圖靈獎的三位獲獎者中,本吉奧是唯一一位沒有在大型科技公司工作的人。多年來,他一直對人工智慧的近期風險表示擔憂,包括就業市場不穩定、自動化武器和有偏見資料集的危險等等。
但是最近,這些擔憂變得更加嚴重,促使本吉奧聯合特斯拉執行長馬斯克(Elon Musk)、蘋果聯合創始人史蒂夫沃茲尼亞克( Steve Wozniak)等其他電腦科學家和科技商業領袖,呼籲暫停開發比OpenAI最新模型GPT-4更強大的人工智慧系統六個月。
本吉歐在周三表示,他相信最新的人工智慧語言模型已經通過了「圖靈測試」。圖靈測試以英國密碼破解者、人工智慧先驅艾倫·圖靈(Alan Turing)於1950年提出的方法命名,旨在衡量人工智慧何時變得與人類難以區分,至少在表面上如此。
班吉歐說:「這是一個里程碑,但如果我們不小心,可能會產生嚴重的後果。我主要擔心的是這些技術將如何被利用來發動網路攻擊和傳播虛假訊息等邪惡目的。你可以與這些系統對話,並認為是在與真人互動。它們很難分辨。」
研究人員對於目前的人工智慧語言系統是否能夠比人類更聰明存在爭議,因為這些系統有很多局限性,例如傾向於捏造資訊等。
艾丹·戈麥斯(Aidan Gomez)是2017年一篇開創性論文的合著者之一,該論文引入了一種所謂的轉換器技術,用於提高機器學習系統的性能,特別是在從文本段落中學習。當時只有20歲的戈麥斯是Google的實習生。他記得在凌晨3點左右,當他的團隊發送論文時,他正躺在公司加州總部的沙發上。
戈麥斯還記得一位同事告訴他:「這將產生巨大影響。」 自那以後,他們的研究幫助推動了新系統的出現,後者可以產生類似人類撰寫的文章。
六年後,戈麥斯如今已是其所創人工智慧公司Cohere的執行長。他對這些系統的潛在應用充滿了熱情,但他也被技術威脅所困擾。他說,這些系統的真實能力與現實脫節,並且依賴非凡的想像和推理能力。
戈麥斯說:「認為這些模型會以某種方式獲得核武的控制權,並發動某種滅絕級事件的想法是杞人憂天,無益於那些試圖做好事、真正務實的政策努力。」
以上是AI大牛預警,但眼前問題或毀滅人類風險,哪個比較值得擔心?的詳細內容。更多資訊請關注PHP中文網其他相關文章!