首頁 >科技週邊 >人工智慧 >GPT-5要停? OpenAI凌晨發文回應:保障AI安全,我們沒有「偷工減料」

GPT-5要停? OpenAI凌晨發文回應:保障AI安全,我們沒有「偷工減料」

PHPz
PHPz轉載
2023-04-07 14:48:031053瀏覽

近些天,對 OpenAI 來說,可謂是個「多事之秋」。

由於ChatGPT 及GPT-4 可能引發的安全問題,OpenAI 受到了來自外界的一些指責和阻撓:

  • 馬斯克等上千人聯名呼籲「所有人工智慧實驗室應立即暫停訓練比GPT-4 更強大的大模型,這一時間至少為6 個月”;
  • 意大利禁用ChatGPT,OpenAl“必須在20 天內通過其在歐洲的代表向他們通報公司執行此要求而採取的措施」;
  • ChatGPT 大面積封號;
  • ChatGPT Plus 停售;
  • ......

這些事件表明,儘管AI 已經證明有能力為人類社會帶來諸多好處,但科技總是一把雙面刃,也會為人類社會帶來帶來真正的風險,AI 也不例外。

4 月 6 日,OpenAI 官方發布了一篇名為「Our approach to AI safety」的部落格文章,探討如何「安全地建構、部署和使用人工智慧系統」的方法。

GPT-5要停? OpenAI凌晨發文回應:保障AI安全,我們沒有「偷工減料」

OpenAI 致力於維持強大的人工智慧安全和(人類社會的)廣泛受益。我們的人工智慧工具為今天的人們提供了許多好處。

來自世界各地的用戶告訴我們,ChatGPT 有助於提高他們的生產力,增強他們的創造力,並提供量身定制的學習體驗。

我們也意識到,像任何技術一樣,這些工具也有真正的風險——所以,我們努力確保在各個層面上將安全納入我們的系統。

1. 建立越來越安全的人工智慧系統

在發布任何新系統之前,我們都會進行嚴格的測試,讓外部專家參與反饋,並努力利用人類反饋的強化學習等技術改善模型的行為,並建立廣泛的安全和監測系統。

例如,在我們最新的模型 GPT-4 完成訓練後,我們所有員工花了 6 個多月的時間使其在公開發布前更加安全和一致。

我們認為,強大的人工智慧系統應該接受嚴格的安全評估。需要有監管來確保這種做法被採納,我們積極與政府接觸,探討這種監管可能採取的最佳形式。

2. 從真實世界的使用中學習,以改進保障措施

我們努力在部署前預防可預見的風險,然而,我們在實驗室中能學到的東西是有限的。儘管進行了廣泛的研究和測試,我們無法預測人們使用我們技術的所有有益方式,也無法預測人們濫用科技的所有方式。這就是為什麼我們相信,隨著時間的推移,從現實世界的使用中學習是創建和發布越來越安全的人工智慧系統的關鍵組成部分。

在有大量的保障措施下,我們謹慎地逐步發布新的人工智慧系統,將其推送給一個穩步擴大的人群,並根據我們學到的經驗不斷改進。

我們透過我們自己的服務和 API 提供我們最有能力的模型,讓開發者可以直接在他們的應用程式中使用這種技術。這使我們能夠監測濫用情況並採取行動,並不斷建立緩解措施,以應對人們濫用我們的系統的真實方式,而不僅僅是關於濫用可能會是什麼樣子的理論。

現實世界的使用也使我們制定了越來越細微的政策,以防止那些對人們構成真正風險的行為,同時也允許我們的技術有許多有益的用途。

至關重要的是,我們相信社會必須有時間來更新和調整,以適應能力越來越強的人工智慧,而每個受這種技術影響的人都應該在人工智慧的進一步發展中擁有重要的發言權。迭代部署幫助我們將各種利害關係人帶入關於採用人工智慧技術的對話中,比他們沒有親身經歷過這些工具的情況下更有效。

3. 保護兒童

關於安全的一個關鍵工作是保護兒童。我們要求使用我們的人工智慧工具的人必須是 18 歲或以上,或 13 歲或以上並得到父母的批准,我們正在研究驗證選項。

我們不允許我們的技術被用來產生仇恨、騷擾、暴力或成人內容,以及其他(有害)類別。我們的最新模型 GPT-4 與 GPT-3.5 相比,對不允許的內容請求的回應率降低了 82%,我們已經建立了一個強大的系統來監控濫用。 GPT-4 現在可供 ChatGPT Plus 用戶使用,我們希望隨著時間的推移,能讓更多人使用。

我們做了許多努力,盡量減少我們的模型產生傷害兒童的內容的可能性。例如,當使用者試圖向我們的圖像工具上傳兒童安全虐待資料時,我們會阻止這項動作,並向國家失蹤和受剝削兒童中心報告。

除了我們的預設安全護欄外,我們還與非營利性的可汗學院等開發商合作--該學院建立了一個由人工智慧驅動的助手,既是學生的虛擬導師,也是教師的課堂助手--為他們的使用情況量身訂做安全緩解措施。我們也正在開發一些功能,使開發者能夠為模型輸出設定更嚴格的標準,以更好地支援那些希望獲得此功能的開發者和使用者。

4. 尊重隱私

我們的大型語言模型是在一個廣泛的文本語料庫上訓練出來的,其中包括公開的、授權的內容,以及由人類審查者產生的內容。我們不使用數據來銷售我們的服務、廣告或建立人們的檔案,我們使用數據來使我們的模型對人們更有幫助。例如,ChatGPT 透過對人們與它的對話進行進一步的訓練來提高能力。

雖然我們的一些訓練資料包括公共互聯網上的個人信息,但我們希望我們的模型能夠了解這個世界,而不是私人。因此,我們努力在可行的情況下從訓練資料集中刪除個人訊息,對模型進行微調,以拒絕對私人資訊的請求,並對個人提出的從我們的系統中刪除其個人資訊的請求作出回應。這些步驟最大限度地減少了我們的模型可能產生包括私人資訊的內容的可能性。

5. 提高事實的準確性

大型語言模型根據它們先前看到的模式,包括使用者提供的文字輸入,預測、產生接下來的一系列的單字。在某些情況下,下一個最有可能的詞可能在事實上並不準確。

提高事實準確性是 OpenAI 和許多其他人工智慧開發者的一個重要工作,我們正在取得進展。透過利用使用者對被標記為不正確的 ChatGPT 輸出的回饋作為主要資料來源。

我們意識到,要進一步減少幻覺的可能性,以及引導大眾了解這些人工智慧工具目前的局限性,還有很多其他工作要做。

6. 持續的研究和參與

我們認為,解決人工智慧安全問題的實用方法是投入更多的時間和資源來研究有效的緩解措施和調整技術,並針對現實世界的濫用進行測試。

重要的是,我們認為,提高人工智慧的安全性和能力應該齊頭並進。到目前為止,我們最好的安全工作來自與我們能力最強的模型之間的合作,因為它們更善於遵循使用者的指示,更容易引導或「指導」。

隨著能力更強的模型的創建和部署,我們將越來越謹慎,隨著我們人工智慧系統的進一步發展,我們將繼續加強安全防範措施。

雖然我們為了更好地了解GPT-4 的能力、好處和風險,等了6 個多月才將其部署,但有時可能需要比這更長的時間來提高人工智慧系統的安全性。因此,政策制定者和人工智慧供應商將需要確保人工智慧的發展和部署在全球範圍內得到有效的管理,沒有人會為了盡快取得成功而「偷工減料」。這是一個艱鉅的挑戰,需要技術和製度上的創新,但這也是我們渴望做出的貢獻。

解決安全問題也需要廣泛的辯論、實驗和參與,包括在人工智慧系統行為的界限上。我們已經並將繼續促進利益相關者之間的合作和公開對話,以創建一個安全的人工智慧生態系統。

以上是GPT-5要停? OpenAI凌晨發文回應:保障AI安全,我們沒有「偷工減料」的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除