首頁  >  文章  >  科技週邊  >  ChatGPT 與大型語言模型:有什麼風險?

ChatGPT 與大型語言模型:有什麼風險?

PHPz
PHPz轉載
2023-04-08 10:41:051209瀏覽

大型語言模型 (LLM) 和 AI 聊天機器人引起了全世界的興趣,因為 2022 年底發布的 ChatGPT 及其提供的查詢便利性。現在它是有史以來成長最快的消費者應用程式之一,而它的受歡迎程度正促使許多競爭對手開發自己的服務和模型,或快速部署他們一直在內部開發的服務和模型。

與任何新興技術一樣,人們總是擔心這對安全意味著什麼。該部落格在近期更廣泛地考慮了 ChatGPT 和 LLM 的一些網路安全方面。

什麼是 ChatGPT,什麼是LLMs?

ChatGPT 是由美國科技新創公司 OpenAI 開發的人工智慧聊天機器人。它基於GPT-3,這是一種於 2020 年發布的語言模型,它使用深度學習來產生類似人類的文本,但底層的 LLM 技術已經存在了很長時間。

法學碩士是演算法在大量基於文本的資料上進行訓練的地方,這些資料通常是從開放的互聯網上抓取的,因此涵蓋了網頁和——取決於法學碩士——其他來源,如科學研究、書籍或社交媒體帖子. 這涵蓋瞭如此大量的數據,以至於不可能在攝取時過濾掉所有令人反感或不准確的內容,因此“有爭議的”內容很可能包含在其模型中。

這些演算法分析不同單字之間的關係,並將其轉換為機率模型。然後可以給演算法一個「提示」(例如,透過問它一個問題),它會根據其模型中單字的關係提供答案。

通常,其模型中的資料在訓練後是靜態的,儘管它可以透過「微調」(對額外資料進行訓練)和「提示增強」(提供有關問題的上下文資訊)進行改進。提示增強的範例可能是:

Taking into account the below information, how would you describe...

然後將可能大量的文字(或整個文件)複製到提示/問題中。

ChatGPT有效地允許用戶向 LLM 提問,就像您在與聊天機器人進行對話時一樣。最近的其他 LLM 範例包括Google 的 Bard和Meta 的 LLaMa(用於科學論文)的公告。

法學碩士無疑令人印象深刻,因為它們能夠以多種人類和電腦語言產生大量令人信服的內容。然而,它們不是魔法,也不是通用人工智慧,並且包含一些嚴重的缺陷,包括:

  • 他們可能會弄錯事情並「產生幻覺」不正確的事實
  • 他們可能有偏見,通常容易上當受騙(例如,在回答主要問題時)
  • 他們需要巨大的計算資源和海量數據來從頭開始訓練
  • 他們可以被哄騙創造有毒內容並且容易受到「注射攻擊」

LLM 會洩露我的資訊嗎?

一個普遍的擔憂是 LLM 可能會從您的提示中“學習”,並將該資訊提供給查詢相關內容的其他人。這裡有一些令人擔憂的原因,但不是出於許多人考慮的原因。目前,對 LLM 進行訓練,然後查詢產生的模型。 LLM 不會(在撰寫本文時)自動將查詢中的資訊新增至其模型中以供其他人查詢。也就是說,在查詢中包含資訊不會導致該資料併入 LLM。

但是,查詢將對提供 LLM 的組織可見(對於 ChatGPT,對 OpenAI 也是如此)。這些查詢被儲存起來,幾乎肯定會在某個時候用於開發 LLM 服務或模型。這可能意味著 LLM 提供者(或其合作夥伴/承包商)能夠讀取查詢,並可能以某種方式將它們合併到未來的版本中。因此,在提出敏感問題之前,需要徹底了解使用條款和隱私權政策。

一個問題可能是敏感的,因為查詢中包含數據,或者因為誰(以及何時)提出問題。後者的例子可能是,如果發現 CEO 曾經問過“如何最好地解僱員工?”,或者有人問了暴露健康或人際關係的問題。也要記住使用相同登入名稱跨多個查詢聚合資訊。

另一個風險隨著越來越多的組織生產 LLM 而增加,它是在線存儲的查詢可能被黑客攻擊、洩露,或者更有可能意外地公開訪問。這可能包括潛在的用戶身份資訊。另一個風險是 LLM 的營運商後來被一個組織收購,該組織採用與使用者輸入資料時不同的隱私方法。

因此,NCSC 建議:

  • 不要在對公共LLM 的查詢中包含敏感資訊
  • 不要向公開的LLM 提交會導致問題的查詢
##我如何安全地向LLM 提供敏感資訊?

隨著 LLM 的興起,許多組織可能想知道他們是否可以使用 LLM 來自動化某些業務任務,這可能涉及透過微調或及時擴充來提供敏感資訊。雖然不建議將此方法用於公共LLM,但「私有LLM」可能由雲端提供者提供(例如),或者可以完全自行託管:

    對於雲端提供的LLM,使用條款和隱私權政策再次成為關鍵(因為它們對於公共LLM),但更有可能符合雲端服務的現有條款。組織需要了解如何管理用於微調或提示擴充的資料。供應商的研究人員或合作夥伴是否可以使用它?如果是這樣,以什麼形式?資料是單獨共享還是與其他組織匯總共享?提供者的員工在什麼情況下可以查看查詢?
  • 自架 LLM可能非常昂貴。但是,經過安全評估,它們可能適合處理組織資料。特別是,組織應參考我們關於保護基礎設施和資料供應鏈的指南。
LLMs是否讓網路犯罪者的生活更輕鬆?

已經有一些令人難以置信的演示證明 LLM 如何幫助編寫惡意軟體。令人擔憂的是,LLM 可能會幫助懷有惡意(但技能不足)的人創建他們原本無法部署的工具。在他們目前的狀態下,LLMs 看起來令人信服(無論他們是否),並且適合簡單的任務而不是複雜的任務。這意味著 LLM 可用於“幫助專家節省時間”,因為專家可以驗證 LLM 的輸出。

對於更複雜的任務,專家目前更容易從頭開始建立惡意軟體,而不必花時間修正 LLM 產生的內容。但是,能夠創建功能強大的惡意軟體的專家很可能能夠誘使 LLM 編寫功能強大的惡意軟體。 「使用 LLM 從頭開始創建惡意軟體」和「驗證 LLM 創建的惡意軟體」之間的權衡將隨著 LLM 的改進而改變。

也可以詢問LLM以就技術問題提出建議。犯罪分子可能會使用 LLM 來幫助進行超出其當前能力的網路攻擊,尤其是在攻擊者存取網路後。例如,如果攻擊者正在努力提升權限或尋找數據,他們可能會詢問 LLM,並收到與搜尋引擎結果不同但具有更多上下文的答案。當前的 LLM 提供了聽起來令人信服的答案,但可能只是部分正確,尤其是當主題變得更加利基時。這些答案可能會幫助犯罪分子進行他們無法以其他方式執行的攻擊,或者他們可能會建議採取哪些行動來加快對犯罪分子的偵查。無論哪種方式,攻擊者的查詢都可能被 LLM 操作員儲存和保留。

由於 LLM 擅長按需複製寫作風格,因此存在犯罪分子使用 LLM 編寫令人信服的網路釣魚電子郵件(包括多種語言的電子郵件)的風險。這可以幫助具有高技術能力但缺乏語言技能的攻擊者,幫助他們使用目標的母語創建令人信服的網路釣魚電子郵件(或進行社會工程)。

總而言之,在短期內我們可能會看到:

    由於LLM,更有說服力的網路釣魚電子郵件
  • 攻擊者嘗試他們以前不熟悉的技術
技能較低的攻擊者編寫功能強大的惡意軟體的風險也很低。

總結

對於LLM來說,這是一個令人興奮的時刻,尤其是 ChatGPT 吸引了全世界的想像。就像所有技術發展一樣,有人會熱衷於使用它並研究它所提供的功能,以及可能永遠不會使用它的人。

正如我們在上面概述的那樣,毫無疑問,不受限制地使用公共 LLM 存在風險。個人和組織應格外小心他們選擇在提示中提交的資料。您應該確保那些想要嘗試 LLM 的人能夠,但不會將組織資料置於風險之中。

NCSC 意識到與網路安全和 LLM 的採用有關的其他新出現的威脅(和機會),我們當然會在以後的部落格文章中讓您了解這些。

David C - 平台研究技術總監Paul J - 數據科學研究技術總監——編譯自英國NCSC

以上是ChatGPT 與大型語言模型:有什麼風險?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除