首頁 >科技週邊 >人工智慧 >微軟向美國政府提供GPT大模型,如何確保安全性?

微軟向美國政府提供GPT大模型,如何確保安全性?

PHPz
PHPz轉載
2023-06-12 20:59:18770瀏覽

微軟向美國政府提供GPT大模型,如何確保安全性?

生成式人工智慧的熱潮已經席捲到了美國聯邦政府,微軟宣布推出Azure OpenAI服務,允許Azure政府客戶訪問GPT-3、 GPT-4以及Embeddings。

微軟在聲明中說,政府機構將透過此項服務獲得ChatGPT用例,不會犧牲「他們為了滿足政府對敏感資料的要求所需要的、嚴格的安全和合規標準。

微軟聲稱,它已經開發了一種架構,讓政府客戶「能夠從Azure Government安全地存取商業環境中的大語言模型」。微軟表示,透過Python SDK REST APIs或 Azure AI Studio進行訪問,所有這一切都不會將政府資料暴露在公共互聯網上。

微軟承諾表示:「只有提交給Azure OpenAI服務的查詢才會轉入商業環境中的Azure OpenAI模型。」「Azure Government直接與微軟Azure商業網路對等,而不直接與公共互聯網或微軟企業網對等。」

微軟報告稱,它使用IEEE 802.1AE——或MACsec——網路安全標準對所有Azure流量進行加密,而且所有的流量都駐留在全球骨幹網中,該骨幹網路由超過25萬公里的光纖和海底電纜系統所構成。

Azure OpenAI Service for government已經全面推出,對於經過批准的企業或政府客戶,已經可以使用了。

政府用的ChatGPT到底能多保密?

微軟一直希望贏得美國政府的信任——但它也出過紕漏。

有消息指出有超過1兆位元組的政府敏感軍事文件被暴露在公共網路上——國防部和微軟就這個問題互相指責。

微軟子公司、ChatGPT的創建者OpenAI在安全性方面也不盡如人意,3月份,一個糟糕的開源程式庫讓一些用戶的聊天記錄被曝光。從那個時候起,一些知名的公司——包括蘋果、亞馬遜和幾家銀行——因為擔心ChatGPT可能會暴露內部機密訊息,已經禁止內部使用它。

英國的間諜機構GCHQ甚至對這種風險發出了警告。那麼,即使這些秘密顯然不會被傳輸到一個不受信任的網絡,但美國政府把自己的秘密交給微軟是否正確?

微軟表示,它不會專門使用政府資料來訓練OpenAI模型,所以絕密資料很可能不會在給其他人的回覆中被洩露。但是這並不意味著它可以被預設為安全。微軟在公告中委婉地承認,當政府用戶使用OpenAI模型的時候,一些數據仍將被記錄下來。

微軟表示:「微軟允許具有額外限定存取資格並證明特定用例的客戶申請修改Azure OpenAI的內容管理功能。」

它補充說:「如果微軟批准了客戶修改資料記錄的請求,就不會儲存與已批准的Azure訂閱相關的任何提問和回复,在Azure商業中的資料記錄也會被設定為關閉。」這意味著,除非政府機構符合某些特定的標準,否則提問和回應——由人工智慧模型返回的文本——將被保留。

以上是微軟向美國政府提供GPT大模型,如何確保安全性?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除