現在,生成式AI的探索和實作工作已經不可避免地與安全問題交織在一起。根據近期的數據報告,49%的企業領導者認為安全風險已成為首要問題,38%的企業領導者則將因不了解如何使用GPT工具而引發的人為錯誤/人為資料外洩列為頭號挑戰。
儘管這些擔憂各有道理,但是早期採用者所獲得的好處將遠遠超過這些阻礙探索的潛在後果
在這篇文章中,我們將幫助團隊成員和客戶明白為什麼不能把安全視為事後因素,而應將其作為AI與業務相融合的前提條件,並探討在這方面工作中的一系列最佳實踐
企業已經意識到AI應用帶來的新興安全風險與迫切性。根據先前提到的統計報告,81%的企業領導者表示他們的公司已經或正在製定圍繞生成式AI建立的用戶政策
然而,由於該技術的發展速度極快、新興應用與用例時刻都在湧現,因此政策內容也必須不斷更新以應對隨時出現的風險和挑戰。
為了在加快探索的同時最大限度地降低安全風險,我們自然有必要為測試和學習工作設定「護欄」。此外,制定相關政策時也絕不應該孤立推進,而應該充分徵集企業內各部門代表的意見,思考不同職能單位如何使用/是否可以使用生成式人工智慧來應對各自面臨的安全風險
總而言之,各部門對於AI技術的探索不應被粗暴禁止。如果單純出於恐懼而在企業範圍內全面封禁,那麼大家也不必擔心競爭對手吞噬自己的市場份額了——您本身就是在自毀長城。
為了確保生成式AI能夠安全地使用,我們首先應該為普通開發人員提供許可。例如,可以允許他們全面使用大型語言學習模型Insight GPT的私有實例。這樣一方面可以幫助發現潛在的用例,同時也可以根據輸出進行壓力測試,以持續改進生成式AI服務
#我們很快發現,一個倉庫團隊的成員找到了一種提高訂單配送效率的方法。在這個特殊的案例中,該成員要求在SAP中編寫一個腳本,用來自動處理一部分工作負載。儘管效果很好,但如果沒有正確設定保護措施,這個嘗試也很容易導致事故。例如,如果工作人員不小心執行了訂單中不存在的交易,後續的自動步驟將無法中止
在促進民間探索並儘可能限制風險的過程中,我們需要採取以下措施:審查委員會應制定明確的指導方針,進行風險評估,並加強人工智慧系統的透明度。同時,應進行適當的培訓,教育員工如何以負責任的方式將人工智慧應用到工作場景中,特別是要明確處理道德標準、偏見、人類監督和資料隱私等關鍵問題的方法。此外,還應開設內部論壇,鼓勵團隊成員在公司的創新者群組內分享自己的發現和教訓
生成式AI之所以存在風險,一個重要原因是它偶爾會產生「幻覺」。根據Insight報告,企業領導者最關心的共同主題,就是幻覺會如何引發錯誤的商業決策。然而,幻覺導致的風險往往各不相同,有時問題不大、有時後果嚴重,具體影響往往因場景而異。
雖然GPT工具必然會輸出某些與客觀現實不符的結果,但我們很快就意識到這種錯誤回答往往屬於措詞層面的混淆。例如,在早期測試當中,我們詢問Insight GPT埃迪·範·海倫曾與埃迪·範·海倫合作過哪首作品。正確答案是“Beat It”,但它的答案是“Thriller”。可從另一個角度講,「Beat It」確實是「Thriller」專輯中的一首作品,所以它的回答也並非毫無道理。
這樣做可以確保我們能夠有效地管理和監督AI產生的內容,以減少幻覺問題帶來的風險。同時,我們也需要加強AI系統的訓練和監控,確保其產生的內容符合相關政策和標準。只有透過這樣的措施,我們才能更好地應對處理主觀性較強的工作負荷時可能出現的問題
當下,生成式AI產業仍處於萌芽階段,誰能摸索出負責任且安全的應用方式,同時減少資料外洩、資訊錯誤、偏見及其他風險所引發的潛在威脅,誰能建立起明確的技術優勢。企業需要確保自己的AI政策與產業的變化持續保持同步,在維護合規性、緩解幻覺問題的同時逐步建立起用戶信任。
以上是如何安全可靠地推進生成式AI探索?的詳細內容。更多資訊請關注PHP中文網其他相關文章!