生成性AI的快速發展在隱私和安全方面帶來了前所未有的挑戰,引發了對監管幹預的迫切呼籲。
上週,我有機會在華盛頓特區與一些國會議員及其工作人員討論AI與安全相關的影響。
今天的生成性AI讓我想起80年代末的互聯網,基礎研究、潛在潛力和學術用途,但它還沒有為公眾做好準備。這一次,不受約束的供應商野心,受到小聯盟創投的推動和Twitter迴聲室的激勵,正在快速推進AI的「美麗新世界」。
「公共」基礎模型有缺陷,不適用於消費者和商業用途;隱私抽象,即使存在,也像篩子一樣洩漏;安全結構非常重要,因為攻擊面和威脅向量仍在被理解中。至於虛幻的護欄,說得越少越好。
那我們是怎麼到這裡的?安全和隱私怎麼了?
「妥協」的基礎模型
「開放」模式有時也會有限制。不同的供應商透過開放模式權重、文件或測試的存取來宣傳他們的開放程度。儘管如此,沒有一個全主要供應商提供接近訓練資料集或其清單或血統的信息,以便能夠夠複製和重新現他們的模型。
如果你想使用一個或多個模型來訓練資料集,那麼你作為消費者或組織,沒有任何能力來驗證或確認資料污染的程度,無論是關於智慧財產權、版權等,還是作為非法內容。
關鍵的是,沒有訓練資料集的清單,就無法驗證或確認不存在的惡意內容。惡意行為者,包括國家資助的行為者,在網路上植入特洛伊木馬內容,這些內容如果在模型訓練期間被攝取,導致在推理時產生不可預測和潛在的惡意副作用。
記住,一旦模型被妥協,就沒有方法讓它忘記,唯一的選擇是銷毀它。
「無孔不入」的安全問題
生成式AI模型是終極安全蜜罐,因為「所有」資料都被攝取到一個容器中。在AI時代出現了出現了新的攻擊向量類別;該行業尚未理解這些模型如何從網路威脅中得到保護,以及這些模型如何被網路威脅行為者用作工具的影響。
惡意提示注入技術可能被用來污染索引;資料投毒可能被用來破壞權重;嵌入攻擊,包括反轉技術,可能被用來從嵌入中提取豐富的資料;成員推斷可能被用來確定某些資料是否在訓練集中,等等,這只是冰山一角。
威脅行為者可能透過模型反轉和程序化查詢,來獲得機密資料的存取權限;他們可能破壞或以其他方式影響模型的潛在行為;而且,正如前面提到的,大規模失控的資料攝取會導致透過特洛伊木馬等方式嵌入國家支持的網路活動威脅。
「洩漏」的隱私
AI模型之所以有用,是因為它們所訓練的資料集;不加區別地大規模資料攝取,為個人和公眾帶來了前所未有的隱私風險。在AI時代,隱私已成為社會關注的問題;主要解決個人資料權利的法規是不夠充分的。
除了靜態資料之外,動態對話的提示也必須被視為智慧財產權來保護和維護。如果你是消費者,參與與模型共同創造一個工件,你希望你引導這個創造活動的提示,不會被用來訓練模型或與其他模型消費者分享。
如果你是一名員工,使用模型來實現業務成果,你的雇主期望你的提示保密;此外,提示和響應需要一個安全的審計跟踪,以防任何一方出現責任問題。這主要是由於這些模型的隨機性以及其反應隨時間的變化。
接下來會發生什麼事?
我們正在處理一種前所未有的技術,這種技術在我們的電腦歷史中是獨一無二的,它展現出了規模化的湧現性和潛在行為;過去用於安全、隱私和保密的方法已經不再適用。
行業領導者將謹慎拋在了腦後,監管者和政策制定者別無選擇,只能選擇介入。
以上是AI 的新世界挑戰:安全與隱私怎麼了?的詳細內容。更多資訊請關注PHP中文網其他相關文章!