最近,圖靈三巨頭之一的Yoshua Bengio接受了BBC的採訪。
Bengio在訪談中透出了一股濃濃的「憂鬱風」,表示他對自己一生所追求的事業感到某種程度上的迷失。
往具體了說,他覺得如果自己能早點體認到AI可能的發展速度,那他可能就會傾向於AI的安全性優先,而非實用性優先。
要知道,Bengio剛剛簽署了前幾天公佈的「AI可能滅絕人類」的公開信。
公開信的簽署立場鮮明地表明了Bengio的態度。
這封只有22個字的公開信,將AI可能滅絕人類的風險和核戰、傳染病等社會危機做比較。
在BBC的訪談中,Bengio詳細地闡述了自己的看法。
他呼籲,我們應該對AI進行更嚴格地規範,舉例來說,軍方就絕對不應該被賦予使用AI的權力。
當然,政治機構也不是對AI的發展熟視無睹。
歐盟可能就會是最早針對AI進行立法的組織。也是在最近,歐盟表示,AI相關的行為準則可能在未來幾週內創建。
這種擔心不無道理。畢竟,AI的高性能可能被使用在對人類有害的目標上,例如開發新型化學武器。
Bengio表示,自己很擔心那些「有惡意」的人掌握AI,尤其是在AI發展速度如此之快的情況下。
「可能是軍方,可能是恐怖分子,也可能是精神情緒並不穩定的人。總之,如果這些人掌握了AI,讓AI執行一些極度危險的事情,那麼後果是不可預料的。」
另外,他表示,如果AI繼續發展,我們可能無法中斷進程中的AI。
接下來,Bengio又聊到自己了。
這些擔憂無疑增加了他的內耗,對他的個人生活和工作產生了影響。
從前的Bengio是榮譽傍身的AI大牛(當然現在也是),當時的他,願意為自己所熱愛和擅長的事業奮鬥終生。
AI事業曾經帶給他了認同感、認同感和人生方向。但現在,因為這些擔憂的存在,這些東西對他來說已經不再清晰。
「對於那些身在AI行業的人來說,這在情感上是具有挑戰性的。」
不過,憂鬱的背後仍是積極的態度。
「你可以說我感到迷失。但你必須堅持下去,你必須參與討論,鼓勵別人和你一起思考。」
馬斯克也表達過類似的擔憂。
雖然他不認為AI一定會滅絕人類,但他認為AI可能會限制並控制人類。
Bengio認為,所有和AI產品相關的科技巨頭公司都需要受管控,登記在冊。
「政府需要追蹤他們在做什麼,他們需要能夠審計他們。而這只是我們對其他任何行業(如建造飛機、汽車或製藥)所做的最基本的事情。」
「我們還需要引入一種道德訓練,而這通常來說都是電腦科學及不會接受到的。」
Huggingface的科學家Sasha Luccioni博士表示,社會應該關注諸如AI偏見,資訊的錯誤傳播等問題,她認為這些問題是具體的。
她的理念是,具體的問題應該要被我們更重視。滅絕人類什麼的,有點虛,還聊不到。
而實際上,也有許多實例顯示了AI為社會帶來的許多好處。
就在上週,憑藉AI的力量,一個癱瘓的人只需靠意念控制就能再次嘗試行走,這得益於使用AI開發的微晶片。
而在科技影響以外,AI對國家經濟的深遠影響也不能忽視。
許多公司已經開始用AI工具取代人工,這也正是好萊塢劇作家發動罷工的一個重要原因。
無獨有偶,前一陣子,同為圖靈三巨頭的Hinton也因為同樣的原因上過一次熱搜。
當時,各大媒體充斥著這個標題:深度學習泰斗、神經網路之父Geoffrey Hinton突然宣布離職Google。
為了能夠自由談論人工智慧風險,而不考慮這對Google的影響。
在紐約時報的報導中,Hinton直接警示世人:注意,前方有危險,前方有危險,前方有危險!
而這正是他對人工智慧風險深深擔憂。 Hinton直言:「我對自己的畢生工作,感到非常後悔。」
從人工智慧的開創者到末日預言家,Hinton的轉變,也標誌著科技業正處於數十年來最重要的一個轉折點。
這一點同樣讓許多業內人士感到不安,他們擔心自己所做的研究,正在向外釋放某種危險。
因為生成式人工智慧可能已經成為產生錯誤訊息的工具。並在未來的某個時候,可能會對人類構成威脅。
在Hinton看來,如何防止壞人利用它做壞事,我們還未能找到方法。
而在Hinton辭職錢,在喧囂的反對浪潮中,人工智慧教父Hinton卻並未在限制AI發展的兩封公開信上簽名。
他表示,自己在辭去工作之前,並不想公開批評谷歌,或其他公司。
忍到上個月,Hinton終於下定決心,通知Google自己即將辭職。
選擇離職Google後,Hinton終於可以暢所欲言地談論AI的風險了。
#我對我的畢生工作,感到十分後悔。
我只能這樣安慰自己:即使沒有我,也會有別人。
以上是AI教父Bengio:我感到迷失,對AI擔憂已成「精神內耗」!的詳細內容。更多資訊請關注PHP中文網其他相關文章!