3月14日,人工智慧公司OpenAI發布了ChatGPT(GPT-3.5階段)的升級版GPT-4,讓原本已經略顯沉寂的ChatGPT話題再次迎來了“爆炸式熱議”,毫無懸念地衝上了社群平台熱搜。 「AI 終將取代人類」、「GPP-4考試能力強國90%的人類」等議題受到越來越多的使用者關注。
和之前的ChatGPT相比,此次GPT-4的升級堪稱“重磅級”:採用了“超大多模態模型”,回答準確率上大幅提升;輸出文字擴寫能力增強,處理上限增加至2.5W個單字;在純文字輸入基礎上增加了圖像辨識;創造力大幅提升,能夠處理更細微的指令......
和ChatGPT相比,GPT-4是如此之優秀,帶來的可怕結果是:在用戶的瘋狂訂購下,OpenAI付款系統宕機了。
如果說基於GPT-3.5模型的ChatGPT還是個在及格線徘徊的」差生“,那麼GPT-4的實力則有望踏入」尖子生「行列,不僅更加智能,也更難被「欺騙」。
丟掉Chat的前綴後,GPT-4能力有了明顯的變化。簡單來說,隨著OpenAI在深度學習方向上的不斷擴展,GPT-4朝著「更像人」的方向邁出了一大步,它甚至參加了美國律師資格考試Uniform Bar Exam、法學院入學考試LSAT等,成績排在前20%;還有用戶在YouTube上進行直播用GPT-4寫文章、寫代碼、報稅、寫詩、講笑話……
透過對26種語言進行測試,GPT-4在24種語言的表現均優於GPT-3.5等其他大語言模型,包括拉脫維亞語、威爾斯語和斯瓦希里語等低資源語言,其中對中文辨識的準確性達到了80.1%(下圖)。
OpenAI示範了一段用GPT-4用26個字寫的《灰姑娘》故事梗概,其中這26個字的首字母正好對應26個字母從A到Z的正確排序,足以證明GPT-4在詞彙量及語言創作上能力的強大。
但最大的更新之處,在於GPT-4在圖片辨識上的支持,能夠在讀懂圖片內容的基礎上,給予有邏輯的回答。例如當用戶問下圖有何特別之處,GPT-4能夠直接描述出是」一名男子正在行駛中的出租車車頂上的熨衣板上熨燙衣服「。
在另一個例子中,GPT-4能夠按照使用者要求,在」讀懂「論文的基礎上給出摘要,並能對其中的某個試驗過程進行精簡的描述。
此外,GPT-4還能在一定程度上讀懂網路上流行的搞笑」梗圖“,例如能夠描述出下圖的搞笑之處在於”將過時的大型VGA 連接器插入小型現代智慧型手機充電埠的荒謬做法」。
首先我們必須意識到一個問題,越來越聰明的GPT-4會不會帶來更可怕的安全風險,或是成為網路犯罪組織手中的「利劍」?
在ChatGPT版本,FreeBuf曾深入探討其在網路犯罪方面被利用的情況,以及可能為網路空間帶來的安全風險。
一是其本身的風險。
例如安全專家在ChatGPT生成的內容中發現了與公司內部機密十分相似的文本,原因可能是亞馬遜員工在使用ChatGPT生成代碼和文本時輸入了公司內部數據信息。那麼,在GPT-4中,這樣的安全隱憂將會仍舊存在,各大巨頭依舊會對GPT進行防守。
在網安政策方面,GPT-4同樣面臨踩紅線的危險。例如是否違反了GDPR的“最小資料”原則,是否滿足“被遺忘權”或“刪除權”,對於公共資料的使用是否合規,對於學術型、知識產權型資訊的收集適合符合當前的法律、法規。
目前,我國《網路安全法》《資料保護法》《個人資訊保護法》對於資料的收集、使用都有細緻的規定,僅從現有的情況來看,GPT-4顯然無法全部滿足這些要求。而且未來全球的法律體系將朝著「資料保護」的方向進一步細化,當時GPT將面臨更嚴峻的合規壓力。
其次是使用GPT-4編輯程式碼可能會有更多隱藏的漏洞。
在ChatGPT-3.5階段,已經有企業和開發人員嘗試利用它來寫入程式碼和漏洞排查。在卡巴斯基的一項實驗中,分析師發現ChatGPT 可用於為未運行端點檢測和響應 (EDR) 系統、檢測代碼混淆或逆向工程代碼二進位的公司收集取證資訊。
而更聰明的GPT-4也被許多人給予厚望,當越來越多的開發人員使用GPT-4來編寫程式碼,其中隱藏的漏洞將會成為更可怕的計時炸彈,一旦被攻擊者利用,將會為整個網路安全空間帶來難以言喻的災難,尤其是在供應鏈安全領域需要提高警覺。
最後,如何防止GPT-4被駭客利用,從而對網路安全防禦帶來新的壓力。
一個十分明顯的事實是,從ChatGPT 階段開始,GPT 被用於黑產、網路犯罪、駭客攻擊等領域的案例越來越多,未來甚至有可能成為常態。
例如Cybernews的研究人員曾發現,ChatGPT可以被駭客用於尋找網站的安全漏洞,在其幫助下,研究人員對一個普通網站進行了滲透測試,並在45分鐘內結合ChatGPT提供的建議和程式碼更改範例完成了破解。
ChatGPT已經具備這樣的能力,更何況更聰明的GPT-4?短時間想要利用GPT-4對網路安全體系產生實質的強化似乎難以實現,但是被用於網路犯罪卻已是近在眉睫,類似的安全風險該如何處理已經成為當下必須要思考的問題。
當然,在安全方面OpenAI也在持續努力。例如他們聘請了50 多位來自人工智慧對接風險、網路安全、生物風險、信任和安全以及國際安全等領域的專家對模型進行對抗性測試,訓練各種高風險場景,從而為緩解措施和模型的改進提供依據。例如透過蒐集額外專業數據,以提高GPT-4拒絕有關如何合成危險化學品請求的能力。
但僅依靠這些,很明顯無法滿足安全的訴求,這也意味著我們需要從多方面入手來增強,以GPT-4為代表的人工智能在安全方面的能力,包括制定政策法規、以技術手段遏止作惡的風險等。
無論如何,科技的進步對於人類的發展有著不可估量的作用,但同時我們更需要對風險有清晰的認識。換言之,我們以積極的態度擁抱GPT-4,但我們更要做好應對風險的準備。
正如二戰某領袖所說的:我們改變不了別人的想法,既然他們要備戰,我們也要備戰。對於GPT-4也是如此,我們無法改變他人用它來“作惡”,但我們可以決定如何用它來“為善”。
AI這把劍,握在網安的手裡,同樣異常鋒利。
我們做好準備!
以上是火爆的GPT-4來了!的詳細內容。更多資訊請關注PHP中文網其他相關文章!