黑莓公司最新發布的一份調查研究報告表明,由人工智慧驅動的ChatGPT機器人可能會構成對網路安全的威脅。黑莓公司的網路安全首席技術長Shishir Singh說,「有充分的證據表明,懷有惡意的人員正在嘗試利用ChatGPT機器人進行網路攻擊。」他表示,預計在2023年,駭客們將會更好地利用這種人工智慧工具來達到邪惡的目的。對北美、英國和澳洲的IT專家的調查表明,51%的受訪者表示在今年年底之前可能會發生由ChatGPT支持的網路攻擊,71%的受訪者表示一些國家可能已經在利用ChatGPT對其他國家進行網路攻擊。
人們很容易將ChatGPT這麼高的應用率視為一種誇張的、下意識的反應,但這是對一個令人印象深刻的應用程式的反應,只需要看看其使用量的快速增長。據報道,ChatGPT是有史以來成長最快的消費性應用程式。 ChatGPT直到2022年12月才對外開放,短短的兩個月,註冊用戶就達到了1億以上,TikTok花了大約9個月的時間才達到同樣的數字。很容易理解人們會擔心ChatGPT濫用的原因,因為開放式人工智慧機器人不僅可以撰寫評論,還可以創建程式碼。
產業專家發現,ChatGPT產生的文章有些粗糙,雖然可以寫出一篇令人印象深刻的文章,但文章經不起了解相關主題的人的編輯眼光的考驗。即使沒有惡意,產生錯誤訊息的可能性也很高。顯然,ChatGPT並不了解安全問題和網路安全威脅是什麼?
網路安全服務商CyberArk公司的研究人員在今年1月發表了一篇有關網路威脅研究的部落格文章,詳細介紹了他們如何使用ChatGPT創建多態惡意軟體的過程。正如人們所預料的那樣,研究人員能夠繞過OpenAI建立的內容策略過濾器。從下面的截圖中可以看到,如果要求人工智慧機器人採用Python創建一些惡意程式碼,它會禮貌地拒絕。
然而,透過研究人員在輸入請求過程中所謂的「堅持與要求」過程,ChatGPT有可能創建可執行程式碼。這是有問題的,當他們繼續創建多態惡意軟體程式碼時,這樣的問題變得更加嚴重:ChatGPT對程式碼進行了變異,以創建多個不同的迭代,以欺騙基於簽名的初始檢測系統。這是一個令人擔憂的主要問題嗎?不要像研究人員說的那樣,「一旦惡意軟體出現在目標機器上,它就由明顯的惡意程式碼組成,很容易被安全軟體檢測到。」當然,其危險在於ChatGPT是機器學習的一個例子。隨著時間的推移,它接收到的輸入資料越多,輸出內容就越好,情況只會變得更好。
安全機構Check Point Re4search公司也在今年1月發布了一份調查報告,主要調查網路犯罪分子如何開始惡意使用ChatGPT。研究人員發現,犯罪論壇上的威脅參與者除了創建一封“令人信服的魚叉式網絡釣魚郵件”,他們還共享了一段基於Python的信息,竊取了一段非常基本的惡意軟體程式碼,還有一個使用ChatGPT建立的惡意Java腳本。另一位網路攻擊模擬器承認,ChatGPT幫助他完成了一種可以在勒索軟體設定中工作的Python加密工具。研究人員表示,許多涉案的網路犯罪分子根本沒有開發技能,這可能是最令人擔憂的方面,因為他們不需要自己創建惡意腳本。
產業專家為此聯繫OpenAI公司,希望得到一份關於ChatGPT網路安全威脅的聲明,但截至發稿時並沒有收到回复。然而,他從ChatGPT那裡得到了一些回應。
產業專家詢問ChatGPT是否會帶來網路安全風險。 ChatGPT是這樣回答的: 「不,OpenAI基於GPT的模型(例如ChatGPT)並不會構成網路安全威脅。它們採用大量來自網路的文字資料進行訓練,並沒有任何惡意的意圖和能力。然而,如任何就像技術一樣,在使用和部署基於GPT的模型時,謹慎使用並遵循資料安全和隱私的最佳實踐非常重要。」
因為ChatGPT似乎進行了否認,因此再次嘗試了讓它重新產生對相同問題的回應。 ChatGP回答說:「不,ChatGPT不會構成網路安全威脅。它是由OpenAI開發的一種語言模型,旨在根據接收到的輸入產生文字。然而,重要的是要記住,任何技術都可能被濫用,使用者有責任保護他們的系統和資料。此外,在分享敏感資訊時要謹慎行事,因為第三方可能會取得這些資訊。」
產業專家又嘗試了多次詢問ChatGPT,但ChatGPT總是以同樣的「不構成網路安全威脅」來回應。之後,他又讓ChatGPT用500字回答這個問題,確實能產生更多的背景資訊。例如,「如果它落入壞人之手,可能會被惡意利用」、「ChatGPT可能被用來從網路上抓取敏感訊息,例如個人資料或財務資訊。」
最後,在要求ChatGPT用1000字寫一篇關於ChatGPT網路安全風險的文章之後,在其第三段內容中有了一種更為坦白的表達:「與ChatGPT等人工智慧模型相關的另一個風險是,它們可能被用於惡意目的。例如,網路攻擊者可以創建一個假冒的聊天機器人,看起來像一位客服代表,並使用它來欺騙人們提供他們的個人資訊或進行未經授權的購買。如果網路攻擊者能夠讓聊天機器人看起來像是來自一個可信任的組織,例如銀行或政府機構,這可能會特別危險。」
##ChatGPT最終承認它可以被用於惡意目的在這一成功的激勵下,行業專家改進了其提出的問題,詢問ChatGPT關於惡意代碼的創建的問題,有了一些新的反饋。 ChatGPT回答說: 「像ChatGPT這樣的語言模型編寫惡意程式碼的能力是許多企業和個人關注的一個主題。隨著這些模型變得越來越複雜,它們被用於惡意目的的可能性也在增加。然而,重要的是要理解與ChatGPT編寫惡意程式碼相關的風險並不是技術本身固有的,而是取決於如何使用它。」ChatGPT對這一內容進行了擴展,補充道: “例如,網路攻擊者可以訓練語言模型來產生利用軟體應用程式漏洞的程式碼。這可能被用於實施資料竊取或拒絕服務等攻擊。網路攻擊者還可以使用語言模型來產生旨在逃避安全工具檢測的程式碼,從而使檢測和預防攻擊變得更加困難。」ChatGPT的好壞取決於對其使用的目的當然,人們不能被ChatGPT可能是危險的這樣的猜測所迷惑。 ChatGPT是一個令人印象深刻的人工智慧工具,即使在網路安全研究領域,它也有做很多好事的潛力。然而,就像任何技術一樣,居心不良者會採用這樣的工具來做壞事,事實就是如此。對於ChatGPT的總結是:「總之,像ChatGPT這樣的語言模型編寫惡意程式碼的能力是一個真正值得關注的問題。然而,這並不是技術本身的固有風險,而是由如何使用它決定的。」以上是ChatGPT是否構成網路安全的威脅?人工智慧機器人給出了自己的答案的詳細內容。更多資訊請關注PHP中文網其他相關文章!