首頁 >科技週邊 >人工智慧 >美媒:別被AI的智能嚇到,真正可怕之處是它被高估被濫用

美媒:別被AI的智能嚇到,真正可怕之處是它被高估被濫用

PHPz
PHPz轉載
2023-04-07 18:21:021826瀏覽

美媒:別被AI的智能嚇到,真正可怕之處是它被高估被濫用

4月5日訊息,過去六個月以來,強大的人工智慧(AI)新工具正在以驚人的速度擴散,從能夠進行類似真人對話的聊天機器人,到自動運行軟體的編碼機器人,再到無中生有的圖像生成器,所謂的生成式人工智慧(AIGC)突然變得無處不在,並且變得越來越強大。

但在上週,針對這股AI熱潮的反彈開始出現。特斯拉、推特執行長馬斯克(Elon Musk)為首的數千名技術專家和學者簽署了一封公開信,警告“人類面臨的嚴重風險”,並呼籲暫停AI語言模型的開發六個月。

同時,一家AI研究非營利組織提出申訴,要求美國聯邦貿易委員會(FTC)調查ChatGPT的創建公司OpenAI,並停止其GPT-4軟體的進一步商業化發布。

義大利監管機構也採取行動,以資料隱私侵犯為由,徹底封鎖了ChatGPT。

有人呼籲暫停或放緩AI研究,或許這是可以理解的。幾年前看起來不可思議甚至深不可測的AI應用程式現在正在迅速滲透到社交媒體、學校、工作場所甚至政治領域。面對這種令人眼花撩亂的變化,有些人發出了悲觀預測,認為AI最終可能導致人類文明消亡。

好消息是,對全能AI的炒作和恐懼可能被誇大了。雖然Google的Bard和微軟的必應給人留下深刻印象,但它們和成為「天網」相差很遠。

壞消息是,人們對AI快速演化的擔憂已經成為現實。這不是因為AI將變得比人類聰明,而是因為人類已經在利用AI,以現有組織沒有準備好的方式來壓制、剝削和欺騙彼此。此外,人們認為AI越強大,他們和企業就越有可能將其無法勝任的任務委託給它。

除了那些令人悲觀的末日預言之外,我們可以從上週發布的兩份報告初步了解AI對可預見未來的影響。第一份報告由美國投行高盛發布,主要評估AI對經濟和勞動市場的影響;第二份報告由歐洲刑警組織發表,主要講述AI可能被刑事濫用的情況。

從經濟角度來看,最新的AI潮流主要是將曾經只能由人類完成的任務自動化。就像動力織布機、機械化裝配線和自動櫃員機一樣,AIGC有望以比人類更便宜、更有效率的方式完成某些類型的工作。

但是,更便宜、更有效率並不總是意味著更好,任何與雜貨店自助結帳機、自動電話應答系統或客戶服務聊天機器人打交道的人都可以證明這一點。與先前的自動化浪潮不同,AIGC能夠模仿人類,甚至在某些情況下冒充人類。這既可能導致廣泛的欺騙,也可能誘使雇主認為AI可以取代人類員工,即使事實並非如此。

高盛的研究分析估計,AIGC將改變全球約三億個工作崗位,導致數千萬人失業,但也會促進顯著的經濟成長。然而,高盛的評估數字也不一定準確,畢竟他們曾經有過預測失誤的歷史。在2016年,該行曾預測虛擬實境頭戴裝置可能會變得像智慧型手機一樣普及。

在高盛的AI分析報告中,最有趣的是他們對各個行業進行了細分,即哪些工作可能被語言模型增強,哪些工作可能被完全取代。高盛的研究人員將白領任務的難度分為1到7級,其中「審查表格的完整性」為1級,可能被自動化的任務為4級,「在法庭上就一項複雜的動議做出裁決」為6級。據此得出的結論是,行政支援和律師助理工作最有可能被AI取代,而管理和軟體開發等職業的生產效率將會提高。

該報告樂觀地預測,隨著企業從掌握AI技能的員工那裡獲得更多好處,這一代AI最終可能會使全球GDP成長7%。但高盛也預計,在這個過程中,大約7%的美國人會發現他們的職業會被淘汰,更多的人將不得不學習這項技術以維持就業。換句話說,即使AIGC帶來了更正面影響,其結果也可能導致大批員工失業,辦公室和日常生活中的人類將逐漸被機器人取代。

同時,已經有許多公司急於走捷徑,以至於將AI無法處理的任務自動化,例如科技網站CNET自動產生錯誤百出的財經文章。當AI出現問題時,已經被邊緣化的群體可能會受到更大的影響。儘管ChatGPT及其同類產品令人興奮,但當今大型語言模型的開發人員還沒有解決資料集存在偏見的問題,這些資料集已經將種族歧視偏見嵌入到人臉辨識和犯罪風險評估演算法等AI應用中。上週,一名黑人男子再次因為臉部辨識匹配失誤而被錯誤監禁。

更令人擔憂的是,AIGC有些情況下可能會被用於故意傷害。歐洲刑警組織的報告詳細說明了AIGC如何被用來幫助人們實施犯罪,例如進行詐欺和網路攻擊等。

舉例來說,聊天機器人能夠產生特定風格的語言,甚至模仿某些人的聲音,這可能使其成為釣魚詐騙的強大工具。語言模型在編寫軟體腳本方面的優勢可能會使惡意程式碼的生成大眾化。它們能夠提供個人化、情境化、循序漸進的建議,對於那些想要闖入民宅、勒索某人或製造管狀炸彈的罪犯來說,它們可以成為萬能指南。我們已經看到合成圖像如何在社群媒體上散佈虛假敘事,再次引發人們對深度造假可能扭曲競選活動的擔憂。

值得注意的是,使語言模型容易受到濫用的原因不僅是它們擁有廣泛的智慧,而且它們在知識方面存在根本缺陷。目前領先的聊天機器人經過訓練後,當檢測到有人試圖將它們用於邪惡目的時會保持沉默。但正如歐洲刑警組織指出的那樣,「只有在模型理解它在做什麼的情況下,防止ChatGPT提供潛在惡意程式碼的安全措施才有效。」正如大量記錄在案的技巧和漏洞所表明的那樣,自我意識仍然是這項技術的弱點之一。

考慮到所有這些風險,你不必擔心世界末日的場景,就會看到AIGC的發展步伐放慢,讓社會有更多時間來適應。 OpenAI本身是作為非營利組織成立的,前提是AI可以採用更負責任的方式構建,而不會有實現季度收益目標的壓力。

但OpenAI現在正在一場勢均力敵的競賽中領先,科技巨頭正在裁減他們的AI倫理學家,而且無論如何,這匹馬可能已經離開了馬厩。正如學術AI專家薩亞什·卡普爾(Sayash Kapoor)和阿爾文德·納拉亞南(Arvind Narayanan)所指出的那樣,現在語言模型創新的主要驅動力不是推動越來越大的模型,而是將我們擁有的模型整合到各種應用和工具中。他們認為,監管機構應該從產品安全和消費者保護的角度來看待AI工具,而不是試圖像遏制核武一樣遏制AI。

也許短期內最重要的是讓技術專家、商業領袖和監管機構拋開恐慌和炒作,更加深入地理解AIGC的優點和缺點,從而在採用它時更加謹慎。如果AI繼續發揮作用,無論發生什麼,它的影響都將是顛覆性的。但過高估計其能力將使其危害更大,而不是更小。

以上是美媒:別被AI的智能嚇到,真正可怕之處是它被高估被濫用的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除