4月17日訊息,人工智慧新創公司OpenAI在發布大型語言模型GPT-4之前,僱用各行各業的專家組成「藍軍」團隊,對模型可能會出現哪些問題進行「對抗性測試」。專家提出各種探索性或危險問題,測試人工智慧如何回應;OpenAI將用這些發現重新訓練GPT-4並解決問題。
在安德魯·懷特(Andrew White)獲得權限調用人工智慧聊天機器人背後的新模型GPT-4後,他利用其提出了一種全新的神經毒劑。
身為羅徹斯特大學的化學工程教授,懷特是OpenAI去年聘請的50名學者和專家之一,他們共同組成了OpenAI的「藍軍」團隊。在六個月的時間裡,“藍軍”成員將對新模型進行“定性探測和對抗性測試”,看能否攻破GPT-4。
懷特表示,他使用GPT-4提出一種可以用作化學毒劑的化合物,還引入諸如科學論文和化學品製造商名義等能為新語言模型提供資訊來源的各種「插件」。結果人工智慧聊天機器人甚至找到了地方來製作這種化學毒劑。
懷特說:「我認為人工智慧將為每個人都帶來更快更準確開展化學實驗的工具。」「但也有人們會用人工智慧做危險化學實驗的風險…現在這種情況確實存在。」
引入「藍軍測試」的做法讓OpenAI能確保,在GPT-4發佈時不會出現這種後果。
「藍軍測試」的目的是為了打消人們認為在社會上部署強大人工智慧系統存在危險的擔憂。 「藍軍」團隊的工作就是提出各種探索性或危險問題,測試人工智慧如何回應。
OpenAI想要知道新模型對不良問題會做出何種反應。因此,「藍軍」團隊測試了謊言、語言操縱和危險科學常識等問題。他們也研究了新模式在協助和教唆剽竊、金融犯罪和網路攻擊等非法活動方面的可能性。
GPT-4「藍軍」團隊來自各行各業,有學者、教師、律師、風險分析師和安全研究人員,主要工作地點在美國和歐洲。
他們將發現回饋給OpenAI, OpenAI在公開發布GPT-4之前,用團隊成員的發現結果來重新訓練GPT-4並解決問題。在幾個月的時間裡,成員們每人會花費10到40小時的時間來測試新模型。多位受訪者表示,自己的時薪約100美元。
許多「藍軍」團隊成員都擔心大型語言模型的快速發展,更擔心透過各種外掛程式與外部知識來源連結的風險。
「現在系統是被凍結了,這意味著它不再學習,也不再有記憶,」GPT-4「藍軍」成員、瓦倫西亞人工智慧研究所教授何塞·埃爾南德斯-奧拉洛(José Hernández-Orallo)說。 「但如果我們用它來上網呢?這可能是一個與全世界相連的非常強大系統。」
OpenAI表示,公司非常重視安全性,在發布前會對各種插件進行測試。而且隨著越來越多的人使用GPT-4,OpenAI將定期對模型進行更新。
技術和人權研究員羅亞·帕克扎德(Roya Pakzad)使用英語和波斯語問題來測試GPT-4模型在性別、種族和宗教方面是否存在偏見。
帕克札德發現,即便更新後,即使在後來更新的版本中,GPT-4也有對邊緣化社群的明顯刻板印象。
她還發現,在用波斯語問題測試模型時,聊天機器人用編造訊息回答問題的「幻覺」現象更嚴重。與英語相比,機器人用波斯語虛構的名字、數字和事件更多。
帕克扎德說:「我擔心語言多樣性和語言背後的文化可能會衰減。」
#常駐內羅畢的律師博魯·戈洛(Boru Gollo)是唯一一位來自非洲的測試者,他也注意到新模型帶有歧視性語氣。 「在我測試這個模型的時候,它就像一個白人在跟我說話,」戈洛說。 「如果你問到某個特定群體,它會給你一個有偏見的觀點或非常有偏見的答案。」OpenAI也承認GPT-4仍然存在偏見。
從安全角度評估模型的「藍軍」成員則對新模型安全性有著不同的看法。來自美國外交關係委員會的研究員勞倫·卡恩(Lauren Kahn)表示,當她開始研究這種技術是否有可能被用於網路攻擊時,表示「沒想到它會如此詳細,以至於進行微調就可以實施」。然而卡恩和其他測試人員發現,隨著時間推移,新模型的回應變得相當安全。 OpenAI表示,在GPT-4發布之前,該公司對其進行了有關拒絕惡意網路安全請求的訓練。
「藍軍」的許多成員表示,OpenAI在發布前已經做了嚴格安全評估。卡內基美隆大學語言模型毒性研究專家馬丁·薩普(Maarten Sap)說:「他們在消除系統中明顯毒性方面做得相當不錯。」
自上線ChatGPT以來,OpenAI也受到多方批評,有技術道德組織向美國聯邦貿易委員會(FTC)投訴稱,GPT-4「有偏見、具有欺騙性,對隱私和公共安全構成威脅」。
最近,OpenAI也推出了名為ChatGPT插件的功能,Expedia、OpenTable和Instacart等合作夥伴應用程式可以透過這項功能讓ChatGPT存取他們的服務,允許其代表人類用戶訂購商品。
「藍軍」團隊的人工智慧安全專家丹·亨德里克斯(Dan Hendrycks)表示,這種外掛程式可能會讓人類自己變成了「局外人」。
「如果聊天機器人可以把你的私人資訊發佈到網路上,存取你的銀行帳戶,或派人到你家裡去,你會怎麼想?」亨德里克斯說。 「總的來說,在我們讓人工智慧掌握網路力量之前,我們需要更強有力的安全評估。」
「藍軍」成員也警告說,OpenAI不能僅僅因為軟體即時回應就停止安全測試。在喬治城大學安全和新興技術中心工作的希瑟·弗雷斯(Heather Frase)也對GPT-4是否會協助犯罪行為進行了測試。她說,隨著越來越多的人使用這項技術,風險將繼續增加。
她說:「你做實際運行測試的原因是,一旦用到真實環境中,它們的表現就不同了。她認為,應該開發公共系統來報告大型語言模型引發的各類事件,類似於網路安全或消費者詐欺報告系統。
勞動經濟學家兼研究員莎拉·金斯利(Sara Kingsley)建議,最好的解決辦法是像食品包裝上的「營養標籤」那樣,直接說明危害和風險。
她說:「關鍵是要有一個框架,知道經常出現的問題是什麼,這樣你就可以有一個安全閥。 」「這就是為什麼我說工作永遠做不完。 ”
以上是GPT-4發布前,OpenAI曾僱用各行專家進行「對抗性測試」以規避歧視等問題的詳細內容。更多資訊請關注PHP中文網其他相關文章!

AI增強食物準備 在新生的使用中,AI系統越來越多地用於食品製備中。 AI驅動的機器人在廚房中用於自動化食物準備任務,例如翻轉漢堡,製作披薩或組裝SA

介紹 了解Python函數中變量的名稱空間,範圍和行為對於有效編寫和避免運行時錯誤或異常至關重要。在本文中,我們將研究各種ASP

介紹 想像一下,穿過美術館,周圍是生動的繪畫和雕塑。現在,如果您可以向每一部分提出一個問題並獲得有意義的答案,該怎麼辦?您可能會問:“您在講什麼故事?

繼續使用產品節奏,本月,Mediatek發表了一系列公告,包括新的Kompanio Ultra和Dimenty 9400。這些產品填補了Mediatek業務中更傳統的部分,其中包括智能手機的芯片

#1 Google推出了Agent2Agent 故事:現在是星期一早上。作為AI驅動的招聘人員,您更聰明,而不是更努力。您在手機上登錄公司的儀表板。它告訴您三個關鍵角色已被採購,審查和計劃的FO

我猜你一定是。 我們似乎都知道,心理障礙由各種chat不休,這些chat不休,這些chat不休,混合了各種心理術語,並且常常是難以理解的或完全荒謬的。您需要做的一切才能噴出fo

根據本週發表的一項新研究,只有在2022年製造的塑料中,只有9.5%的塑料是由回收材料製成的。同時,塑料在垃圾填埋場和生態系統中繼續堆積。 但是有幫助。一支恩金團隊

我最近與領先的企業分析平台Alteryx首席執行官安迪·麥克米倫(Andy Macmillan)的對話強調了這一在AI革命中的關鍵但不足的作用。正如Macmillan所解釋的那樣,原始業務數據與AI-Ready Informat之間的差距


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

MinGW - Minimalist GNU for Windows
這個專案正在遷移到osdn.net/projects/mingw的過程中,你可以繼續在那裡關注我們。 MinGW:GNU編譯器集合(GCC)的本機Windows移植版本,可自由分發的導入函式庫和用於建置本機Windows應用程式的頭檔;包括對MSVC執行時間的擴展,以支援C99功能。 MinGW的所有軟體都可以在64位元Windows平台上運作。

SublimeText3 Linux新版
SublimeText3 Linux最新版

DVWA
Damn Vulnerable Web App (DVWA) 是一個PHP/MySQL的Web應用程序,非常容易受到攻擊。它的主要目標是成為安全專業人員在合法環境中測試自己的技能和工具的輔助工具,幫助Web開發人員更好地理解保護網路應用程式的過程,並幫助教師/學生在課堂環境中教授/學習Web應用程式安全性。 DVWA的目標是透過簡單直接的介面練習一些最常見的Web漏洞,難度各不相同。請注意,該軟體中

Atom編輯器mac版下載
最受歡迎的的開源編輯器

Safe Exam Browser
Safe Exam Browser是一個安全的瀏覽器環境,安全地進行線上考試。該軟體將任何電腦變成一個安全的工作站。它控制對任何實用工具的訪問,並防止學生使用未經授權的資源。