首頁  >  文章  >  科技週邊  >  ChatGPT玩的好,牢飯早晚少不了?

ChatGPT玩的好,牢飯早晚少不了?

WBOY
WBOY轉載
2023-04-12 17:34:101074瀏覽

要說2023年初網路平台最火爆的,無疑是人工智慧領域新寵——智慧聊天機器人模型ChatGPT,吸引了無數網友與它進行「人模人樣」的交流互動,因為它不僅能充分理解人類提出的問題,給出不再「人工智障」的答复,還會切實投入到諸多生產力實踐中,如編程、製圖、腳本攥寫,甚至能詩情畫意地創作詩歌等文案。

一時間,人們紛紛開始討論:以ChatGPT為代表的人工智慧是否會在不久的將來取代大量人類所從事的職業?其實,在探討這個問題之前,我們更需要警惕的是,誕生於網路世界的它有極大的安全風險,甚至是面臨法律風險。如同圈內流傳的段子:ChatGPT玩的好,牢飯早晚少不了?

ChatGPT玩的好,牢飯早晚少不了?

ChatGPT的誕生:天資聰明,但仍不「夠格」

ChatGPT(Chat Generative Pre-Trained Transformer,全名聊天生成式預訓練轉換器)是由全球領先的人工智慧公司OpenAI推出的人工智慧聊天機器人模型,誕生於2022年11月30日。透過利用人類回饋強化模型技術,讓人類偏好作為獎勵訊號來微調模型,從而不斷學習人類語言,做到真正像人一樣聊天交流。正是由於它真正披上如真人般的外衣,ChatGPT自問世以來就迅速火爆全球。截至2023年1月底,ChatGPT月活用戶數突破1億,成為全球用戶成長最快的爆款應用程式之一。

就在ChatGPT越發施展它多面手的能力時,人們也越發開始焦慮:自己的飯碗是否不保?就像過去機器解放了人力、取代大量人工勞動一樣,歷史的發展很可能會推動人工智慧進一步參與人類的工作當中,用更少的人力完成同樣的工作內容。但就現在的技術水平,要完全走到這一步,目前並沒有可以預期的時間表,以ChatGPT為代表的人工智能還僅僅停留在初期探索階段,雖然能夠在與人類的對話中不斷模仿、學習,但基礎仍然是在大量文本和學習模型的基礎上不斷調試,所做出的回答全部來自網絡,並不能真正主觀理解人類語言的真實含義,也很難就具體真實場景給出切合實際的答案。

當ChatGPT碰到未經大量語料訓練的專業領域問題,給出的答案往往並不能回答實際問題,同樣,也不具備人類擅長的引申能力。例如下圖,在回答一個氣象學相關的問題時,由於氣象學領域相對小眾、複雜,在未有該領域足夠內容的訓練下,ChatGPT給出瞭如同“營銷號”般沒有實質性內容的答。因此,即便ChatGPT能夠處理日常工作,也將只是一些重複性、不需要過多創意的工作。

ChatGPT玩的好,牢飯早晚少不了?

可即便如此,ChatGPT在網路安全領域仍能發揮出積極作用,有望成為網安人的得力幫手。

ChatGPT 在網路安全方面的優勢

#偵測易受攻擊的程式碼

ChatGPT可以幫助安全人員對程式碼進行安全檢測。經過初步測驗,若複製一段易受攻擊的代碼,讓 ChatGPT 對其進行分析,該工具可快速識別出其中的安全性問題,並就如何修復給出具體建議。雖然還存在一些不足,但對於想要快速檢查其程式碼片段是否有漏洞的開發人員來說確實是一個實用工具。隨著越來越多的企業正在推動將安全性內建到軟體開發工作流程中,ChatGPT所具備的準確快速的偵測能力可以有效提高程式碼安全性。

任務自動化

ChatGPT 預計將進一步加強腳本、策略編排、安全性報告的自動化,例如為滲透測試報告編寫修復指南。 ChatGPT 還可以更快地寫出大綱,這有助於在報告中添加自動化元素,甚至可以為員工提供網路安全培訓課程。在威脅情報方面,ChatGPT有望顯著提高情報效率和即時信任決策,部署比現階段存取和身分模型更高的置信度,形成關於存取系統和資訊的即時結論。

ChatGPT 在網路安全方面的風險

任何一項新技術往往都有弊端與風險,ChatGPT 在幫助人類讓安全產品更加智慧化、輔助人類應對安全威脅的同時,基於資訊蒐集與再利用工作原理,它是否會逾越安全邊界,產生各類安全風險?此外,雖然ChatGPT 服務條款明確禁止生成惡意軟體,包括勒索軟體、鍵盤記錄器、病毒或“其他旨在造成一定程度危害的軟體,但在黑客手中,ChatGPT也是否仍會化為“魔爪”,讓網路攻擊更加廣泛、複雜?

ChatGPT本身的安全風險

#由於ChatGPT需要廣泛蒐集網路資料以及與人的對話中獲取資訊來訓練模型,預示著它同樣具備獲取並吸收敏感資訊的能力。據矽谷媒體報道,亞馬遜律師稱,他們在ChatGPT生成的內容中發現了與公司內部機密十分相似的文本,可能是由於一些亞馬遜員工在使用ChatGPT生成代碼和文字時輸入了公司內部資料訊息,律師擔心這些資料成為ChatGPT用來進行迭代的訓練資料。而微軟內部的工程師也警告員工,在日常工作使用時不要將敏感資料發送給OpenAI終端,因為OpenAI可能會將其用於未來模型的訓練。

這也涉及到另一個問題:從互聯網蒐集海量資料是否合規?歐洲資料保護委員會(EDPB)成員Alexander Hanff質疑,ChatGPT是一種商業產品,雖然互聯網上存在許多可以被訪問的信息,但從具有禁止第三方爬取數據條款的網站收集海量數據可能違反相關規定,不屬於合理使用,此外還要考慮到受GDPR等保護的個人信息,爬取這些信息並不合規,而且使用海量原始數據可能違反GDPR的“最小數據”原則。

同樣的,當ChatGPT依據人類語言進行訓練時,一些涉及個人的數據是否能夠有效刪除?根據OpenAI官網公佈的隱私權政策,OpenAI並未提及類似歐盟GDPR等資料保護法規,在「使用數據」條款裡,OpenAI承認會收集用戶使用服務時輸入的數據,但未對數據的用途作進一步說明。

根據GDPR第17條,個人有權要求刪除其個人數據,即「被遺忘權」或「刪除權」。但像ChatGPT等大語言模型是否可以「忘記「用於訓練自己的數據?對於OpenAI是否能夠在個人要求時從模型中完全刪除數據,業內人士認為,這類模型很難刪除個人信息的所有痕跡。此外,訓練此類模型花費高昂,AI公司也不太可能每次在個人要求刪除某些敏感資料後重新訓練整個模型。

利用ChatGPT從事違法經營活動

隨著ChatGPT的刷屏,國內也出現眾多與之相關的微信公眾號及小程序。由於ChatGPT官方並未在中國大陸開通服務,無法透過大陸手機號註冊並與之對話,這些小程式便開始宣稱能夠提供與ChatGPT對話的套餐服務,如9.99元20次對話額度至999.99元無限對話額度等。也就是說,這些小程式充當國內用戶與ChatGPT的中介。但即便是中介往往也是真假難辨,有些帳號雖然會宣稱調用ChatGPT的端口,但也不排除其實是使用了其他機器人模型,對話品質遠不及ChatGPT。

ChatGPT玩的好,牢飯早晚少不了?

ChatGPT玩的好,牢飯早晚少不了?

提供所謂ChatGDT對話服務的公眾號小程式

類似的,有些賣家也在電商平台提供販售ChatGPT帳號、代理商註冊的服務,有媒體調查發現,有些賣家從海外網站大量購買可以修改密碼的現成帳號,成本在8元左右,而對外售價可以達到30元,如果是代理商註冊,成本則可以低至1.2元。

且不說上述這些管道有洩漏個人隱私的風險,私自搭建國際頻道,公開提供跨國經營服務的情形,也觸犯了《網路安全法》相關規定。目前這些帶有ChatGPT字眼的公眾號或小程式都大多已經被微信官方進行了封禁處理,相關平台也在對這類帳號的買賣行為進行封鎖。

被駭客利用從事網路攻擊

正如前文所說,ChatGPT能夠幫助安全人員偵測易受攻擊的程式碼,那對於駭客而言也能進行類似的操作。數位安全調查媒體Cyber​​news的研究人員發現,ChatGPT可以被駭客用於尋找網站的安全漏洞,在其幫助下,研究人員對一個普通網站進行了滲透測試,並在45分鐘內結合ChatGPT提供的建議和程式碼更改範例完成了破解。

另外,ChatGPT能夠用來編程,相應地也能被用來寫惡意程式碼。例如透過 ChatGPT 編寫 VBA 程式碼,只需簡單地將惡意 URL 插入此程式碼中,當使用者開啟如Excel檔案時便會自動開始下載惡意軟體負載。因此,ChatGPT能讓沒有太多技術能力的駭客在短短幾分鐘內炮製出武器化的含附件的電子郵件,對目標實施網路攻擊。

去年12月,已有駭客在地下論壇分享利用ChatGPT編寫的Python 竊取器程式碼,該竊取器可搜尋常見文件類型(如MS Office 文件、PDF 和圖片檔案),將它們複製到Temp 資料夾內的一個隨機子資料夾,壓縮並將它們上傳到硬編碼的FTP 伺服器。

ChatGPT玩的好,牢飯早晚少不了?

駭客在論壇上展示如何使用ChatGPT 建立資訊竊取程式

由於ChatGPT能夠學習人類語言,在編寫釣魚郵件等社工行為時能夠在語法和表達習慣上更具迷惑性。研究人員發現,ChatGPT能讓駭客能夠逼真地模擬各種社會環境,從而使任何針對性的攻擊都更加有效,即使是一些非母語國家的駭客,也能編寫出符合目標國家語法和邏輯、沒有任何拼字或格式錯誤的高仿真釣魚郵件。

ChatGPT玩的好,牢飯早晚少不了?

利用ChatGPT 產生的釣魚郵件

初步盤點完上述ChatGPT網路安全方面的優勢與風險後,可以顯而易見,二者形成近乎完全相對的兩面性,也就是如果能夠被駭客查找漏洞、尋找攻擊面,那麼相應的也能幫助安全人員查漏補缺、收窄被攻擊的缺口。但現階段ChatGPT的安全輔助作用仍需要專業人員審查和批准,在流程上可能存在滯後性。而那些出於經濟動機的犯罪駭客,通常會直接利用人工智慧發動攻擊,威脅性難以估量。

人工智慧安全是否急需法規約束?

毫無疑問,以ChatGPT為代表的人工智慧是近年來一項卓越技術的體現,但也正由於這項新技術的兩面性,網路安全和IT 專業人士對ChatGPT而言無疑有著複雜的感受。根據 BlackBerry 最近的一項研究,雖然80%的企業表示計劃在 2025 年之前投資人工智慧驅動的網路安全,但仍有75%的企業認為人工智慧對安全構成嚴重威脅。

這是否意味著我們急需一批新的法規,來專門規範人工智慧產業的發展?我國有專家學者提出,ChatGPT現在所獲得的轟動效應,以及多方資本試圖入局並不等於人工智慧產業取得了突破性發展,ChatGPT目前能夠處理的工作任務具有鮮明的重複性、模板性特徵,因此,監管機構沒有必要立即將ChatGPT技術監管作為現階段網路空間治理的核心工作任務,否則,我國立法模式會陷入「出現一項新技術,制定一項新規定」的邏輯怪圈。就目前而言,我國已經出台的《網路安全法》、《網路資訊內容生態治理規定》、《網路資訊服務演算法推薦管理規定》等法律法規,針對人工智慧技術和演算法技術濫用規定了詳細的法定義務和監管體系,足以應對短期內ChatGPT可能導致的網路安全風險。現階段,我國監管部門可以充分利用現有法律制度,加強對ChatGPT相關產業的監管;未來在經驗成熟時,可以考慮啟動人工智慧技術應用領域的立法,以應對各種潛在的安全風險。

而在國外,歐盟計劃於2024年推出《人工智慧法案》,提議成員國必須任命或建立至少一個監督機構,負責確保 "必要的程序得到遵循"。預計該法案將廣泛應用於從自動駕駛汽車、聊天機器人到自動化工廠等各個領域。

其實,討論ChatGPT的安全性,以及人類的工作是否會被人工智慧所取代,最終歸根結底可能就是圍繞著一個命題:到底是人工智慧來控制人類,還是人類來控制人工智慧。如果人工智慧得到良性發展,輔助人類提高工作效率、加速社會進步,相應的,我們的網路也是安全的,而如果人類不能控制人工智慧,讓它朝向失序的方向發展,那必然是一個處處充滿攻擊及威脅的網路環境,到那時,網路安全恐將不再是“紅藍之間的小打小鬧”,而將是對整個人類社會秩序的顛覆。

以上是ChatGPT玩的好,牢飯早晚少不了?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除