搜尋
首頁科技週邊人工智慧ChatGPT 與大型語言模型:有什麼風險?

ChatGPT 與大型語言模型:有什麼風險?

Apr 08, 2023 am 10:41 AM
chatgpt模型大型語言

大型語言模型 (LLM) 和 AI 聊天機器人引起了全世界的興趣,因為 2022 年底發布的 ChatGPT 及其提供的查詢便利性。現在它是有史以來成長最快的消費者應用程式之一,而它的受歡迎程度正促使許多競爭對手開發自己的服務和模型,或快速部署他們一直在內部開發的服務和模型。

與任何新興技術一樣,人們總是擔心這對安全意味著什麼。該部落格在近期更廣泛地考慮了 ChatGPT 和 LLM 的一些網路安全方面。

什麼是 ChatGPT,什麼是LLMs?

ChatGPT 是由美國科技新創公司 OpenAI 開發的人工智慧聊天機器人。它基於GPT-3,這是一種於 2020 年發布的語言模型,它使用深度學習來產生類似人類的文本,但底層的 LLM 技術已經存在了很長時間。

法學碩士是演算法在大量基於文本的資料上進行訓練的地方,這些資料通常是從開放的互聯網上抓取的,因此涵蓋了網頁和——取決於法學碩士——其他來源,如科學研究、書籍或社交媒體帖子. 這涵蓋瞭如此大量的數據,以至於不可能在攝取時過濾掉所有令人反感或不准確的內容,因此“有爭議的”內容很可能包含在其模型中。

這些演算法分析不同單字之間的關係,並將其轉換為機率模型。然後可以給演算法一個「提示」(例如,透過問它一個問題),它會根據其模型中單字的關係提供答案。

通常,其模型中的資料在訓練後是靜態的,儘管它可以透過「微調」(對額外資料進行訓練)和「提示增強」(提供有關問題的上下文資訊)進行改進。提示增強的範例可能是:

Taking into account the below information, how would you describe...

然後將可能大量的文字(或整個文件)複製到提示/問題中。

ChatGPT有效地允許用戶向 LLM 提問,就像您在與聊天機器人進行對話時一樣。最近的其他 LLM 範例包括Google 的 Bard和Meta 的 LLaMa(用於科學論文)的公告。

法學碩士無疑令人印象深刻,因為它們能夠以多種人類和電腦語言產生大量令人信服的內容。然而,它們不是魔法,也不是通用人工智慧,並且包含一些嚴重的缺陷,包括:

  • 他們可能會弄錯事情並「產生幻覺」不正確的事實
  • 他們可能有偏見,通常容易上當受騙(例如,在回答主要問題時)
  • 他們需要巨大的計算資源和海量數據來從頭開始訓練
  • 他們可以被哄騙創造有毒內容並且容易受到「注射攻擊」

LLM 會洩露我的資訊嗎?

一個普遍的擔憂是 LLM 可能會從您的提示中“學習”,並將該資訊提供給查詢相關內容的其他人。這裡有一些令人擔憂的原因,但不是出於許多人考慮的原因。目前,對 LLM 進行訓練,然後查詢產生的模型。 LLM 不會(在撰寫本文時)自動將查詢中的資訊新增至其模型中以供其他人查詢。也就是說,在查詢中包含資訊不會導致該資料併入 LLM。

但是,查詢將對提供 LLM 的組織可見(對於 ChatGPT,對 OpenAI 也是如此)。這些查詢被儲存起來,幾乎肯定會在某個時候用於開發 LLM 服務或模型。這可能意味著 LLM 提供者(或其合作夥伴/承包商)能夠讀取查詢,並可能以某種方式將它們合併到未來的版本中。因此,在提出敏感問題之前,需要徹底了解使用條款和隱私權政策。

一個問題可能是敏感的,因為查詢中包含數據,或者因為誰(以及何時)提出問題。後者的例子可能是,如果發現 CEO 曾經問過“如何最好地解僱員工?”,或者有人問了暴露健康或人際關係的問題。也要記住使用相同登入名稱跨多個查詢聚合資訊。

另一個風險隨著越來越多的組織生產 LLM 而增加,它是在線存儲的查詢可能被黑客攻擊、洩露,或者更有可能意外地公開訪問。這可能包括潛在的用戶身份資訊。另一個風險是 LLM 的營運商後來被一個組織收購,該組織採用與使用者輸入資料時不同的隱私方法。

因此,NCSC 建議:

  • 不要在對公共LLM 的查詢中包含敏感資訊
  • 不要向公開的LLM 提交會導致問題的查詢
##我如何安全地向LLM 提供敏感資訊?

隨著 LLM 的興起,許多組織可能想知道他們是否可以使用 LLM 來自動化某些業務任務,這可能涉及透過微調或及時擴充來提供敏感資訊。雖然不建議將此方法用於公共LLM,但「私有LLM」可能由雲端提供者提供(例如),或者可以完全自行託管:

    對於雲端提供的LLM,使用條款和隱私權政策再次成為關鍵(因為它們對於公共LLM),但更有可能符合雲端服務的現有條款。組織需要了解如何管理用於微調或提示擴充的資料。供應商的研究人員或合作夥伴是否可以使用它?如果是這樣,以什麼形式?資料是單獨共享還是與其他組織匯總共享?提供者的員工在什麼情況下可以查看查詢?
  • 自架 LLM可能非常昂貴。但是,經過安全評估,它們可能適合處理組織資料。特別是,組織應參考我們關於保護基礎設施和資料供應鏈的指南。
LLMs是否讓網路犯罪者的生活更輕鬆?

已經有一些令人難以置信的演示證明 LLM 如何幫助編寫惡意軟體。令人擔憂的是,LLM 可能會幫助懷有惡意(但技能不足)的人創建他們原本無法部署的工具。在他們目前的狀態下,LLMs 看起來令人信服(無論他們是否),並且適合簡單的任務而不是複雜的任務。這意味著 LLM 可用於“幫助專家節省時間”,因為專家可以驗證 LLM 的輸出。

對於更複雜的任務,專家目前更容易從頭開始建立惡意軟體,而不必花時間修正 LLM 產生的內容。但是,能夠創建功能強大的惡意軟體的專家很可能能夠誘使 LLM 編寫功能強大的惡意軟體。 「使用 LLM 從頭開始創建惡意軟體」和「驗證 LLM 創建的惡意軟體」之間的權衡將隨著 LLM 的改進而改變。

也可以詢問LLM以就技術問題提出建議。犯罪分子可能會使用 LLM 來幫助進行超出其當前能力的網路攻擊,尤其是在攻擊者存取網路後。例如,如果攻擊者正在努力提升權限或尋找數據,他們可能會詢問 LLM,並收到與搜尋引擎結果不同但具有更多上下文的答案。當前的 LLM 提供了聽起來令人信服的答案,但可能只是部分正確,尤其是當主題變得更加利基時。這些答案可能會幫助犯罪分子進行他們無法以其他方式執行的攻擊,或者他們可能會建議採取哪些行動來加快對犯罪分子的偵查。無論哪種方式,攻擊者的查詢都可能被 LLM 操作員儲存和保留。

由於 LLM 擅長按需複製寫作風格,因此存在犯罪分子使用 LLM 編寫令人信服的網路釣魚電子郵件(包括多種語言的電子郵件)的風險。這可以幫助具有高技術能力但缺乏語言技能的攻擊者,幫助他們使用目標的母語創建令人信服的網路釣魚電子郵件(或進行社會工程)。

總而言之,在短期內我們可能會看到:

    由於LLM,更有說服力的網路釣魚電子郵件
  • 攻擊者嘗試他們以前不熟悉的技術
技能較低的攻擊者編寫功能強大的惡意軟體的風險也很低。

總結

對於LLM來說,這是一個令人興奮的時刻,尤其是 ChatGPT 吸引了全世界的想像。就像所有技術發展一樣,有人會熱衷於使用它並研究它所提供的功能,以及可能永遠不會使用它的人。

正如我們在上面概述的那樣,毫無疑問,不受限制地使用公共 LLM 存在風險。個人和組織應格外小心他們選擇在提示中提交的資料。您應該確保那些想要嘗試 LLM 的人能夠,但不會將組織資料置於風險之中。

NCSC 意識到與網路安全和 LLM 的採用有關的其他新出現的威脅(和機會),我們當然會在以後的部落格文章中讓您了解這些。

David C - 平台研究技術總監Paul J - 數據科學研究技術總監——編譯自英國NCSC

以上是ChatGPT 與大型語言模型:有什麼風險?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:51CTO.COM。如有侵權,請聯絡admin@php.cn刪除
及時工程中的思想圖是什麼及時工程中的思想圖是什麼Apr 13, 2025 am 11:53 AM

介紹 在迅速的工程中,“思想圖”是指使用圖理論來構建和指導AI的推理過程的新方法。與通常涉及線性S的傳統方法不同

優化您的組織與Genai代理商的電子郵件營銷優化您的組織與Genai代理商的電子郵件營銷Apr 13, 2025 am 11:44 AM

介紹 恭喜!您經營一家成功的業務。通過您的網頁,社交媒體活動,網絡研討會,會議,免費資源和其他來源,您每天收集5000個電子郵件ID。下一個明顯的步驟是

Apache Pinot實時應用程序性能監視Apache Pinot實時應用程序性能監視Apr 13, 2025 am 11:40 AM

介紹 在當今快節奏的軟件開發環境中,確保最佳應用程序性能至關重要。監視實時指標,例如響應時間,錯誤率和資源利用率可以幫助MAIN

Chatgpt擊中了10億用戶? Openai首席執行官說:'短短幾週內翻了一番Chatgpt擊中了10億用戶? Openai首席執行官說:'短短幾週內翻了一番Apr 13, 2025 am 11:23 AM

“您有幾個用戶?”他扮演。 阿爾特曼回答說:“我認為我們上次說的是每週5億個活躍者,而且它正在迅速增長。” “你告訴我,就像在短短幾週內翻了一番,”安德森繼續說道。 “我說那個私人

pixtral -12b:Mistral AI'第一個多模型模型 - 分析Vidhyapixtral -12b:Mistral AI'第一個多模型模型 - 分析VidhyaApr 13, 2025 am 11:20 AM

介紹 Mistral發布了其第一個多模式模型,即Pixtral-12b-2409。該模型建立在Mistral的120億參數Nemo 12B之上。是什麼設置了該模型?現在可以拍攝圖像和Tex

生成AI應用的代理框架 - 分析Vidhya生成AI應用的代理框架 - 分析VidhyaApr 13, 2025 am 11:13 AM

想像一下,擁有一個由AI驅動的助手,不僅可以響應您的查詢,還可以自主收集信息,執行任務甚至處理多種類型的數據(TEXT,圖像和代碼)。聽起來有未來派?在這個a

生成AI在金融部門的應用生成AI在金融部門的應用Apr 13, 2025 am 11:12 AM

介紹 金融業是任何國家發展的基石,因為它通過促進有效的交易和信貸可用性來推動經濟增長。交易的便利和信貸

在線學習和被動攻擊算法指南在線學習和被動攻擊算法指南Apr 13, 2025 am 11:09 AM

介紹 數據是從社交媒體,金融交易和電子商務平台等來源的前所未有的速度生成的。處理這種連續的信息流是一個挑戰,但它提供了

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

AI Hentai Generator

AI Hentai Generator

免費產生 AI 無盡。

熱門文章

R.E.P.O.能量晶體解釋及其做什麼(黃色晶體)
3 週前By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.最佳圖形設置
3 週前By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O.如果您聽不到任何人,如何修復音頻
3 週前By尊渡假赌尊渡假赌尊渡假赌
WWE 2K25:如何解鎖Myrise中的所有內容
4 週前By尊渡假赌尊渡假赌尊渡假赌

熱工具

Safe Exam Browser

Safe Exam Browser

Safe Exam Browser是一個安全的瀏覽器環境,安全地進行線上考試。該軟體將任何電腦變成一個安全的工作站。它控制對任何實用工具的訪問,並防止學生使用未經授權的資源。

MinGW - Minimalist GNU for Windows

MinGW - Minimalist GNU for Windows

這個專案正在遷移到osdn.net/projects/mingw的過程中,你可以繼續在那裡關注我們。 MinGW:GNU編譯器集合(GCC)的本機Windows移植版本,可自由分發的導入函式庫和用於建置本機Windows應用程式的頭檔;包括對MSVC執行時間的擴展,以支援C99功能。 MinGW的所有軟體都可以在64位元Windows平台上運作。

SecLists

SecLists

SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

WebStorm Mac版

WebStorm Mac版

好用的JavaScript開發工具

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具