首頁  >  文章  >  科技週邊  >  實踐負責任的人工智慧部署:四項原則

實踐負責任的人工智慧部署:四項原則

王林
王林轉載
2023-04-22 20:28:061308瀏覽

人工智慧 (AI) 正在改變每個產業,超過三分之一的組織現在廣泛或有限地生產人工智慧。但與任何技術一樣,人工智慧也伴隨著巨大的經濟和社會風險,例如不道德偏見的擴散、責任的淡化和資料隱私的侵犯。

實踐負責任的人工智慧部署:四項原則

為了避免這些風險並負責任地部署人工智慧,監管政策和產業都有責任為圍繞該技術工作的從業者和使用者制定流程和標準。為此,道德 AI 和 ML 研究所的團隊匯總了負責任的 AI 原則,以授權從業者確保這些原則透過設計嵌入到圍繞生產 AI 和機器學習系統的基礎設施和流程中。

本文對八項原則中的四項進行了細分:偏見評估、可解釋性、人工增強和可重複性。

偏見評估

在某種意義上,人工智慧模型帶有固有的偏見,因為它們被設計用來區別對待相關的答案。這是因為智能的核心是識別我們在世界上看到的模式並對其採取行動的能力。在開發人工智慧模型時,我們試圖複製這種準確的能力,並鼓勵人工智慧在輸入的資料中發現模式,並產生相應的偏見。例如,一個研究蛋白質化學資料的模型會天生對那些結構可以以某種方式折疊的蛋白質產生相關的偏見,從而發現哪些蛋白質在醫學的相關用例中有用。

因此,我們在公開反對人工智慧偏見時應該小心謹慎。圍繞著人工智慧偏見的話題,我們通常指的是實際上不受歡迎或不合理的偏見,例如基於受保護特徵(如種族、性別或國籍)的偏見。

但為什麼人工智慧模式會產生不道德的偏見呢?答案取決於它輸入的資料。模型最終會反映出它們在部署之前使用的訓練資料中存在的偏見,所以如果訓練資料不具代表性或合併了預先存在的偏差,那么生成的模型最終將反映它們。就像他們在計算機科學裡說的「無用輸入無用輸出」。

團隊還必須創建一系列流程和程序,以正確識別圍繞 AI 訓練資料、模型本身的訓練和評估以及模型本身運作生命週期的有效性的任何不良偏差。如果您正在部署 AI,值得關注的一個很好的例子是道德 AI 和機器學習研究所的eXplainable AI 框架,接下來我們將對此進行更詳細的介紹。

可解釋性 

為了確保AI模型符合目的,相關領域專家的參與也很重要。這些人可以幫助團隊確保AI模型使用正確的效能指標,而不僅僅是統計數據和準確性驅動的效能指標。值得強調的是,領域專家不僅包括技術專家,還包括與用例相關的社會科學和人文學科專家。

不過,要使其發揮作用,確保模型的預測能夠由相關領域專家解釋也是很重要的。然而,先進的人工智慧模型通常使用最先進的深度學習技術,這可能不能簡單地解釋為什麼會做出特定的預測。

為了克服這一困難,組織傾向於利用多種技術和工具來實現機器學習的可解釋性,這些技術和工具可用於破解 AI 模型的預測。

在可解釋性之後是人工智慧模型的操作化。這是由相關利害關係人進行調查和監控的時候。此類 AI 模型的生命週期只有在正確部署到生產環境後才開始。一旦啟動並運行,模型才會因為外部壓力而遭受效能下降,無論是概念漂移還是模型運行環境的變化。

人類增強

在部署AI時,首先評估原始非自動化流程的當前需求至關重要,包括概述不良結果的風險。這將允許對過程有更深入的理解,並有助於確定哪些領域可能需要人工幹預來降低風險。

例如,向職業運動員推薦飲食計畫的人工智慧的高影響風險因素遠少於為銀行自動化後端貸款審批流程的人工智慧模型,這表明對前者而言,人工幹預的必要性要小於後者。當團隊確定AI工作流程的潛在風險點時,他們可以考慮實施「 人機迴圈 」的審查過程(HITL)。

HITL確保在流程自動化之後,仍然存在各種接觸點,其中需要人工幹預來檢查結果,從而更容易在必要時提供糾正或撤銷決策。這個過程可以包括技術專家和行業專家團隊(例如,銀行貸款的承銷商,或膳食計劃的營養師),以評估人工智慧模型所做的決定,並確保它們遵守最佳實踐。

可重複性

可重複性是指團隊在資料點上重複執行演算法並每次都得到相同結果的能力。這是負責任的 AI 的核心組成部分,因為它對於確保模型之前的預測在稍後階段重新運行時重新發布至關重要。

自然地,再現性很難實現,這主要是由於人工智慧系統內在的困難。這是因為AI 模型的輸出可能會因各種背景情況而異,例如:

  • 用於計算AI 幹擾的程式碼
  • 從使用的資料中學習到的權重
  • 運行程式碼的環境、基礎架構和配置
  • 提供給模型的輸入和輸入結構

這是一個複雜的問題,尤其是當一個AI模型被大規模部署並需要考慮無數其他工具和框架時。為此,團隊需要開發穩健的實踐來幫助控制上述情況,並實施工具來幫助提高可重複性。

關鍵要點

借助上述高級原則,業界可以確保遵循最佳實踐來負責任地使用人工智慧。採用此類原則對於確保人工智慧充分發揮其經濟潛力至關重要,並且不會削弱弱勢群體的權力、強化不道德的偏見或削弱問責制。相反,它可以成為我們可以用來推動成長、生產力、效率、創新和為所有人帶來更大利益的技術。

以上是實踐負責任的人工智慧部署:四項原則的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除