自2022年11月ChatGPT正式推出以來,已有數百萬用戶瘋狂湧入。由於其出色的類人語言生成能力,程式設計軟體的天賦,以及閃電般的文字分析能力,ChatGPT已迅速成為開發人員、研究人員和日常用戶的首選工具。
與任何顛覆性技術一樣,像ChatGPT這樣的生成式人工智慧系統也存在潛在風險。特別是,科技業的主要參與者、國家情報機構和其他政府機構都對將敏感資訊輸入ChatGPT等人工智慧系統發出了警告。
對ChatGPT存在安全風險的擔憂源於資訊可能會透過ChatGPT最終洩露到公共領域,無論是透過安全漏洞還是使用用戶生成的內容來「訓練」聊天機器人。
為了回應這些擔憂,科技公司正在採取行動,減輕與大型語言模式(LLMs)和會話式AI (CAI)相關的安全風險。一些企業甚至已經選擇完全停用ChatGPT,而其他企業則警告其員工將機密資料輸入此類模型的危險。
人工智慧驅動的ChatGPT已經成為企業優化營運和簡化複雜任務的流行工具。然而,最近的事件凸顯了透過該平台分享機密資訊的潛在危險。
令人不安的是,在不到一個月的時間裡,就報告了三起透過ChatGPT洩漏敏感資料的事件。韓國媒體報道稱,智慧型手機製造商三星(Samsung)主要半導體工廠的員工將機密資訊(包括用於解決程式設計錯誤的高度敏感原始碼)輸入人工智慧聊天機器人,引發了爭議。
原始碼是任何科技公司最嚴密保護的秘密之一,因為它是任何軟體或作業系統的基礎構件。而現在,如此寶貴的商業機密無意間落入了OpenAI的手中。
據知情人士透露,三星目前已經限制了其員工存取ChatGPT的權限。
包括亞馬遜(Amazon)、沃爾瑪(Walmart)和摩根大通(JPMorgan)在內的其他《財富》500強企業集團,也遇到過員工不小心將敏感資料輸入聊天機器人的類似情況。
之前也曾出現過有關亞馬遜員工使用ChatGPT獲取機密客戶資訊的報道,此事促使這家科技巨頭迅速限制了該工具的使用,並嚴厲警告員工不要將任何敏感資料輸入該工具。
人工智慧驅動的數位體驗平台Coveo的機器學習總監Mathieu Fortier表示,GPT-4和LLaMA等LLMs存在多個不完美之處,並警告說,儘管它們在語言理解方面很出色,但這些模型缺乏識別準確性、不變定律、物理現實和其他非語言方面的能力。
雖然LLM透過訓練資料建構了廣泛的內在知識庫,但它們沒有明確的真理或事實準確性概念。此外,它們很容易受到安全漏洞和資料提取攻擊,而且容易偏離預期的反應或表現出「精神錯亂的」特徵——專業名稱為「幻覺」。
Fortier強調了企業面臨的高風險。其後果可能會嚴重破壞客戶的信任,並對品牌聲譽造成不可挽回的損害,導致重大的法律和財務問題。
緊跟其他科技巨頭的腳步,這家零售巨頭的科技部門沃爾瑪全球科技(Walmart Global tech)已採取措施降低資料外洩的風險。在給員工的一份內部備忘錄中,該公司指示員工在偵測到可能危及企業資料和安全的可疑活動後,立即封鎖ChatGPT。
沃爾瑪的發言人表示,儘管該零售商正在基於GPT-4的功能創建自己的聊天機器人,但它已經實施了多項措施,以保護員工和客戶資料不被ChatGPT等生成式人工智慧工具傳播。
該發言人表示,「大多數新技術帶來了新的好處,也帶來了新的風險。因此,我們會評估這些新技術,並為我們的員工提供使用指南,以保護我們的客戶、會員和員工的數據,這並不罕見。利用現有技術(如Open AI),並在其上建立一個更有效地與零售商溝通的層,使我們能夠開發新的客戶體驗,並改善現有能力。」
除此之外,Verizon和Accenture等其他公司也採取了限制ChatGPT使用的措施,Verizon指示其員工將聊天機器人限制在非敏感任務上,Accenture則實施了更嚴格的控制,以確保遵守資料隱私法規。
更令人擔憂的是,ChatGPT會保留使用者輸入資料以進一步訓練模型,這引發了關於敏感資訊可能透過資料外洩或其他安全事件暴露的問題。
OpenAI是流行的生成式人工智慧模型ChatGPT和DALL-E背後的公司,最近實施了一項新政策,以改善用戶資料隱私和安全性。
從今年3月1日起,API用戶必須明確選擇共享他們的資料以訓練或改進OpenAI的模型。
相較之下,對於非API服務,如ChatGPT和DALL-E,如果使用者不希望OpenAI使用他們的數據,則必須選擇退出。
OpenAI公司在最近更新的部落格中稱,「當您使用我們的非API消費者服務ChatGPT或DALL-E時,我們可能會使用您提供的數據來改進我們的模型。與我們分享您的資料不僅有助於我們的模型變得更準確,更好地解決您的特定問題,還有助於提高它們的整體能力和安全性…您可以透過填寫這張表格,填寫您的組織ID和與帳戶所有者關聯的電子郵件地址,來請求退出使用您的資料來改善我們的非API服務。」
這一聲明是在對上述風險的擔憂以及公司在處理敏感資訊時需要謹慎的情況下發布的。義大利政府最近加入了這場爭論,在全國範圍內禁止使用ChatGPT,理由是擔心資料隱私和安全。
OpenAI表示,它從用於改進其人工智慧模型的數據中刪除了任何個人身份信息,並且僅為此目的使用來自每個客戶的一小部分數據樣本。
英國政府通訊總部(GCHQ)情報機構透過其國家網路安全中心(NCSC)發布了一份關於ChatGPT等大型語言模型(LLMs)的局限性和風險的警告。雖然這些模型因其令人印象深刻的自然語言處理能力而受到稱讚,但NCSC警告說,它們並非絕對正確,可能包含嚴重的缺陷。
根據NCSC的說法,LLM可以產生不正確或「幻覺」的事實,正如Google Bard聊天機器人的第一次演示所展示的那樣。它們也會表現出偏見和輕信,尤其是在回答引導性問題時。此外,這些模型需要大量的計算資源和大量的資料來從頭開始訓練,而且它們很容易受到注入攻擊和有毒內容創建的影響。
Coveo公司的Fortier表示,「LLM根據提示(prompt)與內部知識的內在相似性來產生對提示的回應。然而,鑑於它們沒有內在的內部'硬規則'(hard rule)或推理能力,它們不可能100%成功地遵守不披露敏感資訊的約束。儘管有努力減少敏感資訊的生成,但如果LLM使用這些數據進行訓練,它可以重新生成這些資訊。唯一的解決辦法就是不要用敏感材料來訓練這些模型。使用者還應避免在提示中向它們提供敏感信息,因為目前大多數服務都會將這些信息保存在它們的日誌中。」
隨著企業繼續採用人工智慧和其他新興技術,確保適當的安全措施來保護敏感資料並防止機密資訊的意外洩露將至關重要。
這些公司採取的行動凸顯了在使用ChatGPT等人工智慧語言模型時保持警惕的重要性。雖然這些工具可以極大地提高效率和生產力,但如果使用不當,它們會帶來重大風險。
會話式人工智慧新創公司Got it AI的董事長Peter Relan建議稱,「最好的方法是將語言模型原始改進中的每一個新發展都納入到企業策略驅動的架構中,該架構將一個語言模型與用於防護的預處理器和後處理器結合起來,針對特定於企業的資料對它們進行微調,然後甚至可以進行本地部署。否則,原始語言模型太強大了,有時在企業中處理是有害的。」
英偉達支持的對話式人工智慧平台Kore.ai的首席技術官Prasanna Arikala表示,未來,公司將有必要限制LLM訪問敏感和個人信息,以避免違規。
Arikala指出,「實施嚴格的存取控制,如多因素身份驗證,以及對敏感資料進行加密,可以幫助緩解這些風險。此外,還需要定期進行安全審計和漏洞評估,以識別和消除潛在的漏洞。如果使用得當,LLM是很有價值的工具,但對於公司來說,採取必要的預防措施來保護敏感資料並保持客戶和利害關係人的信任至關重要。」
這些法規將如何演變還有待觀察,但企業必須保持警惕,保持領先地位。生成式人工智慧在帶來潛在好處的同時,也帶來了新的責任和挑戰,科技產業需要與政策制定者一起努力,確保以負責任和合乎道德的方式開發和實施這項技術。
以上是在企業中使用人工智慧驅動的聊天機器人的風險的詳細內容。更多資訊請關注PHP中文網其他相關文章!