2023年將是我們記住的人工智慧時代的主流開端,由每個人都在談論的技術:ChatGPT推動。
像ChatGPT這樣的生成式人工智慧語言模型已經抓住了我們的想像力,因為我們第一次能夠看到人工智慧像真人一樣與我們對話,並生成散文、詩歌和其他我們認為有創意的新內容。透過生成式人工智慧解決方案,可能有突破性的潛力,可以提高創新速度、生產力和實現價值的效率。儘管有限制,但人們對它們的資料隱私和管理最佳實踐的認識還有很大提高空間。
最近,許多科技和安全領域的人士因缺乏對人工智慧技術使用的理解和足夠的監管護欄而發出警告。人們已經表達出對人工智慧工具輸出可靠性、智慧財產權、敏感資料外洩以及侵犯隱私和安全問題的擔憂。
三星公司與ChatGPT的事件成為了頭條新聞,因為這家科技巨頭無意中向ChatGPT洩露了自己的秘密。三星並不是唯一這樣做的公司:Cyberhaven的一項研究發現,4%的員工曾經將敏感的公司資料輸入大型語言模型。很多人不清楚,當他們使用企業資料來訓練模型時,人工智慧公司可能會在其他場合再次利用這些資料。
似乎我們不需要更多的網路犯罪素材,網路安全情報公司RecordedFuture透露:「在ChatGPT發布的幾天內,我們在暗網和特殊訪問論壇上發現了許多威脅行為者,他們分享有缺陷但功能齊全的惡意軟體、社會工程教程、賺錢計劃等等——所有這些都是透過使用ChatGPT實現的。」
私人網路存取工程總監JoseBlaya說,在隱私方面,當一個人使用ChatGPT這樣的工具註冊時,它可以存取IP位址、瀏覽器設定和瀏覽活動——就像今天的搜尋引擎一樣。但風險更高,因為未經個人同意,它可能會洩露政治信念或性取向,並可能意味著尷尬甚至毀掉職業生涯的資訊被發布。
顯然,我們需要更好的法規和標準來實作這些新的人工智慧技術。但是對於資料治理和資料管理的重要作用卻缺乏討論,因為這在企業採用和安全使用人工智慧方面可以發揮關鍵作用。
#
人工智慧引發的衍生作品涵蓋了資料管理的第三個領域,與人工智慧流程以及最終資料擁有者有關。假設我使用AI機器人來解決程式設計問題。通常情況下,我會知道是誰負責進行調查和修復工作,因為如果某些事情沒有正確的處理,就會出現bug或錯誤。但有了人工智慧,我的組織要為我要求人工智慧執行的任務所導致的任何錯誤或不良後果負責——即使我們對流程或來源資料不透明。你不能怪機器:在某個地方,是人類造成了錯誤或糟糕的結果。那麼IP呢?你是否擁有使用生成式AI工具創作的作品的IP?你在法庭上怎麼辯護?根據《哈佛商業評論》報道,藝術界已經開始提起訴訟。
在這些早期階段,我們不知道我們對人工智慧的不了解,包括壞資料、隱私和安全、知識產權和其他敏感資料集的風險。人工智慧也是一個廣泛的領域,有多種方法,如法學碩士,基於邏輯的自動化,這些只是透過結合資料治理政策和資料管理實踐來探索的一些主題:
以及降低風險和驗證結果的程式。
避免向人工智慧應用程式提供不必要的數據,也不要分享任何敏感的專有數據。鎖定/加密IP和客戶數據,防止其被共享。
供應商能保護你的資料嗎?Google在其部落格中分享了這一聲明,但「如何」並不清楚:「無論一家公司是在VertexAI中訓練模型,還是在GenerativeAIAppBuilder上建立客戶服務體驗,私人資料都是保密的,不會用於更廣泛的基礎模型訓練語料庫。請仔細審查每個人工智慧工具的合約條款,以了解您所提供的任何資料是否會受到保密
標記業主或委託專案的個人或部門的衍生作品的資料。這很有幫助,因為你可能最終要對公司產生的任何工作負責,你想知道人工智慧是如何被納入過程的,以及由誰加入的。
以上是資料管理對生成式人工智慧的影響的詳細內容。更多資訊請關注PHP中文網其他相關文章!