首頁  >  文章  >  科技週邊  >  AI失控風險加劇:開放模型權重引發Meta舉牌抗議

AI失控風險加劇:開放模型權重引發Meta舉牌抗議

王林
王林轉載
2023-10-11 08:37:01775瀏覽

編輯:杜偉、小舟

AI 尤其是大模型時代的開源與閉源,有利有弊,重要的是如何在使用的過程中做好文章。

一直以來,人們在 AI 領域的開源與閉源選擇上存在著分歧,而在大模型時代,開源這股強大的力量已經悄然崛起。根據先前Google洩露的內部文件,圍繞著 Meta 的 LLaMA 等開源模型,整個社群正在迅速建立與 OpenAI、Google大模型能力類似的模型。

毋庸置疑,Meta 是開源世界的絕對核心,持續做出開源努力,如最近發布 Llama 2。然而木秀於林風必摧之,最近 Meta 因為開源陷入了“麻煩”。

在舊金山的Meta辦公室外,一群舉著標語的抗議者聚集在一起,抗議Meta公開發布AI模型的策略,並聲稱這些發布的模型造成了潛在不安全技術的「不可逆轉的擴散」。甚至有抗議者將Meta發布的大模型比喻為「大規模殺傷性武器」

這些抗議者自稱為「concerned citizens」(關心某事的公民),由 Holly Elmore 領導。根據領英信息,她是 AI Pause(中止 AI)運動的獨立倡導者。

AI失控風險加劇:開放模型權重引發Meta舉牌抗議

要重寫的內容是:圖片來源:MISHA GUREVICH

如果一個模型被證明不安全,她指出可以關閉API。例如,Google和OpenAI等公司只允許使用者透過API存取大型模型

相反地,Meta的LLaMA系列開源模型向公眾提供了模型權重,使得任何擁有合適硬體和專業知識的人都可以自行複製和調整模型。一旦發布了模型權重,發佈公司就無法再控制AI的使用方式

在Holly Elmore的看法中,釋放模型權重是一種危險的策略,任何人都可以修改模型,而這些模型無法被撤銷。 "模型越強大,這種策略就越危險。"

與開源模型相比,透過 API 存取的大型模型通常具備各種安全特性,例如響應過濾或透過特定的訓練來阻止輸出危險或令人討厭的響應

如果模型權重被釋放出來,那麼重新訓練模型來跳過這些「護欄」就變得容易多了。這使得利用這些開源模型來製作網路釣魚軟體、實施網路攻擊更加成為了可能。

AI失控風險加劇:開放模型權重引發Meta舉牌抗議

要重寫的內容是:圖片來源:MISHA GUREVICH

她認為模型安全的問題部分在於目前採取的安全措施不夠,因此需要找到更好的方式來確保模型的安全性

目前,Meta尚未對此發表任何評論。然而,Meta的首席AI科學家Yann LeCun似乎對「開源AI必須被取締」的說法作出了回應,並展示了巴黎開源AI創業社群的繁榮景象

AI失控風險加劇:開放模型權重引發Meta舉牌抗議

有很多人持不同意見,認為AI發展的開放策略是確保實現技術信任的唯一途徑,與Holly Elmore的觀點不同

有網友表示,開源有利有弊,既可以讓人們獲得更高透明度並增強創新,但也將面臨惡意行為者濫用(如程式碼)的風險。

AI失控風險加劇:開放模型權重引發Meta舉牌抗議

正如預期的那樣,OpenAI再次遭到了嘲笑,有人說「它應該回歸開源。」

AI失控風險加劇:開放模型權重引發Meta舉牌抗議

有很多人對開源持有擔憂

麻省理工學院人工智慧安全博士後研究員Peter S. Park表示,未來廣泛發布先進的人工智慧模型可能會帶來許多問題,因為基本上無法完全防止人工智慧模型的濫用

不過,非營利人工智慧研究組織EleutherAI 的執行董事Stella Biderman 表示:「到目前為止,幾乎沒有證據表明開源模型造成了任何具體的損害。目前還不清楚是否僅在API 背後放置一個模型就可以解決安全問題。」

Biderman認為:「建構LLM的基本要素已經在免費的研究論文中公開,任何人都可以閱讀這些論文來開發自己的模型。」

她進一步指出:「如果公司鼓勵對模型細節保密,可能會對領域研究的透明度、公眾意識和科學發展產生嚴重的不良後果,尤其是對獨立研究人員會有影響。」

儘管大家已經在討論開源帶來的影響,但 Meta 的方法是否真的足夠開放,是否能夠發揮開源的優勢,還未可知。

開放原始碼促進會(OSI)的執行董事Stefano Maffulli表示:「開源人工智慧的概念尚未得到明確定義。不同的組織使用這個術語來指不同的事物,表示不同程度的'公開可用的東西',這可能會讓人們感到困惑。」

AI失控風險加劇:開放模型權重引發Meta舉牌抗議

Maffulli 指出,對於開源軟體來說,關鍵問題在於原始程式碼是否已公開可用並可用於任何目的。然而,要重現 AI 模型可能需要共享訓練資料、資料收集方式、訓練軟體、模型權重、推理程式碼等等。其中,最重要的問題是訓練資料可能涉及隱私和版權問題

OSI自去年以來一直致力於為「開源AI」給出一個確切的定義,很有可能會在未來幾週內發布早期草案。但無論如何,他都認為開源對AI發展至關重要。 「如果AI不是開源的,我們就不可能擁有值得信賴、負責任的AI」,他說

未來,關於開源與閉源的分歧會一直延續下去,但開源已經無法阻擋。

以上是AI失控風險加劇:開放模型權重引發Meta舉牌抗議的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:sohu.com。如有侵權,請聯絡admin@php.cn刪除