資料隱私通常與基於消費者資料的人工智慧 (AI) 模型相關聯。可以理解的是,使用者對獲取和使用其數據的自動化技術持謹慎態度,其中可能包括敏感資訊。由於 AI
模型依賴資料品質來提供顯著的結果,因此它們的持續存在取決於隱私保護是其設計不可或缺的一部分。
良好的隱私和資料管理實踐不僅僅是消除客戶恐懼和擔憂的一種方式,與企業的核心組織價值觀、業務流程和安全管理有很大關係。隱私問題已被廣泛研究和宣傳,隱私感知調查數據表明,隱私保護是消費者關注的重要議題。
從上下文中解決這些問題至關重要,對於使用面向消費者的人工智慧的公司來說,有幾種方法和技術可以幫助解決通常與人工智慧相關的隱私問題。
使用人工智慧的企業在隱私方面已經面臨公眾的質疑。根據歐洲消費者組織 2020 年的一項調查顯示,45-60% 的歐洲人同意 AI
將導致更多的個人資料濫用。
有許多流行的線上服務和產品依賴大型資料集來學習和改進他們的 AI
演算法。即使是最不注重隱私的用戶,這些資料集中的一些資料也可能被認為是私有的。來自網路、社群媒體頁面、手機和其他裝置的資料流增加了企業用來訓練機器學習系統的資訊量。由於一些企業過度使用個人資料和管理不善,隱私權保護正在成為世界各地的公共政策議題。
我們收集的大部分敏感資料都是為了改善支援人工智慧的流程。許多分析的數據也是由機器學習採用驅動的,因為複雜的演算法需要根據這些數據集即時做出決策。搜尋演算法、語音助理和推薦引擎只是利用基於現實世界用戶資料的大型資料集的
AI 的少數解決方案。
海量資料庫可能包含廣泛的數據,最緊迫的問題之一是這些數據可能是個人可識別和敏感的。實際上,教導演算法做出決策並不依賴知道數據與誰相關。因此,此類產品背後的公司應專注於將其資料集私有化,幾乎沒有方法來識別來源資料中的用戶,並製定措施從其演算法中刪除邊緣情況以避免逆向工程和識別。
資料隱私和人工智慧之間的關係非常微妙。雖然某些演算法可能不可避免地需要私人數據,但有一些方法可以以更安全和非侵入性的方式使用它。以下方法只是使用私有資料的公司如何成為解決方案的一部分的一些方法。
我們已經討論了逆向工程的問題,其中不良行為者會發現AI
模型中的漏洞並從模型的輸出中識別潛在的關鍵資訊。逆向工程是為什麼在面臨這項挑戰的情況下更改和改進資料庫和學習資料對於 AI 使用至關重要。
例如,在機器學習過程(對抗性學習)中組合衝突的資料集是區分 AI
演算法輸出中的缺陷和偏差的好選擇。也有使用不使用實際個人資料的合成資料集的選項,但它們的有效性仍然存在問題。
醫療保健是人工智慧和資料隱私治理的先驅,尤其是處理敏感的私人資料。它還在同意方面做了大量工作,無論是對於醫療程序還是處理他們的數據——風險很高,並且已得到法律強制執行。
對於 AI 產品和演算法的整體設計,透過匿名化和聚合的方式將資料與使用者解耦是任何使用使用者資料訓練其 AI 模型的企業的關鍵。
有許多考慮可以加強 AI 公司的隱私保護:
人工智慧系統需要大量數據,如果沒有用於訓練人工智慧演算法的個人數據,一些頂級的線上服務和產品就無法運作。然而,有許多方法可以改善資料的取得、管理和使用,包括演算法本身和整體資料管理。尊重隱私的人工智慧需要尊重隱私的公司。
本文作者:Einaras von Gravrock,CUJO AI 執行長兼創辦人
以上是為什麼人工智慧設計必須優先考慮資料隱私的詳細內容。更多資訊請關注PHP中文網其他相關文章!