隨著人工智慧(AI)變得越來越複雜並在社會上廣泛採用,一組最關鍵的流程和方法是可解釋AI,有時也稱為XAI。
可解釋AI可以定義為:
一組幫助人類使用者理解並信任機器學習演算法結果的過程和方法。
可猜到,這種可解釋性是非常重要的。因為AI演算法控制了許多領域,這帶來了偏見、錯誤演算法和其他問題的風險。透過可解釋性實現透明度,世界可以真正利用人工智慧的力量。
可解釋AI,顧名思義,有助於描述一個AI模型、其影響和潛在的偏見。其也在描述模型的準確性、公平性、透明度和人工智慧驅動決策過程的結果方面發揮作用。
現今的AI驅動的組織應該始終採用可解釋AI流程,以幫助在生產中建立對AI模型的信任和信心。在當今的人工智慧環境中,可解釋AI也是成為負責任的企業的關鍵。
由於現今的人工智慧系統非常先進,人類通常會執行一個計算過程,以追溯演算法是如何得到結果的。這個過程變成了一個“黑盒子”,這意味著其是無法被理解的。當這些無法解釋的模型直接從數據中開發出來時,沒有人能理解其中發生了什麼。
透過可解釋AI來了解AI系統是如何運作的,開發者可以確保系統能夠正常運作。其還可以幫助確保模型符合監管標準,並為模型提供挑戰或更改的機會。
AI和XAI之間的差異
一些關鍵的差異有助於將「常規」AI與可解釋AI區分開來,但最重要的是,XAI實現了特定的技術和方法,以幫助確保ML過程中的每個決策都是可追蹤和可解釋的。相較之下,常規AI通常使用ML演算法得到結果,但不可能完全理解演算法是如何得到結果的。在常規AI的情況下,很難檢查準確性,導致控制、問責和可審核性的喪失。
可解釋AI的好處
任何希望採用可解釋AI的組織都有很多好處,例如:
- 更快的結果:可解釋AI使組織能夠有系統地監控和管理模型,以優化業務結果。可以持續地評估和改進模型性能,並微調模型開發。
- 降低風險:透過採用可解釋的AI流程,可以確保AI模型是可解釋的和透明的。可以管理法規、合規性、風險和其他需求,同時最大限度地減少手動檢查的開銷。所有這些也有助於減少意外偏見的風險。
- 建立信任:可解釋AI有助於在生產AI中建立信任。 AI模型可以迅速投入生產,可以保證可解釋性,並且可以簡化模型評估過程,並使其更加透明。
可解釋AI技術
有一些XAI技術是所有組織都應該考慮的,有三種主要方法:預測準確、可追溯性和決策理解。
- 第一種方法是預測的準確性,是在日常操作中成功使用人工智慧的關鍵。可以進行模擬,並將XAI輸出與訓練資料集中的結果進行比較,有助於確定預測的準確性。實現這一點的一種比較流行的技術被稱為本地可解釋模型-無關解釋(LIME),這是一種透過機器學習演算法解釋分類器預測的技術。
- 第二種方法是可追溯性,其透過限制決策的製定方式,以及為機器學習規則和特徵建立更狹窄的範圍來實現。最常見的可追溯性技術之一是DeepLIFT,即深度學習重要特徵。 DeepLIFT將每個神經元的活化與其參考神經元進行比較,同時演示每個活化神經元之間的可追溯連結。其也顯示了彼此之間的依賴關係。
- 第三種方法是決策理解,與前兩種方法不同,其是以人為中心的。決策理解包括教育組織,特別是與AI合作的團隊,使他們能夠理解AI如何以及為什麼做出決策。這種方法對於在系統中建立信任至關重要。
可解釋AI原則
為了更好地理解XAI及其原則,隸屬於美國商務部的美國國家標準研究院(NIST)提供了可解釋AI的四項原則的定義:
- AI系統應該為每個輸出提供證據、支持或推理。
- AI系統應該給出使用者能夠理解的解釋。
- 解釋應該準確地反映系統用於達到其輸出的過程。
- AI系統應該只在其設計的條件下運行,當其對結果缺乏足夠的信心時,不應該提供輸出。
這些原則可以進一步組織為:
- 有意義:為了實現有意義的原則,使用者應該理解所提供的解釋。這也意味著,在不同類型的使用者使用AI演算法的情況下,可能會有多種解釋。例如,在自動駕駛汽車的情況下,一種解釋可能是這樣的…「人工智慧把路上的塑膠袋歸類為石頭,因此採取行動避免撞到它。」雖然這個例子適用於驅動程序,但對於希望糾正該問題的AI開發人員來說並不是很有用。在這種情況下,開發人員必須理解為什麼會出現錯誤分類。
- 解釋準確度:與輸出準確度不同,解釋準確度涉及AI演算法準確解釋其是如何達到輸出的。例如,如果貸款批准演算法根據申請的收入來解釋決定,而實際上其是基於申請人的居住地,那麼這個解釋將是不準確的。
- 知識限制:AI的知識限制可以透過兩種方式達到,其涉及系統專業知識以外的輸入。例如,如果建立一個系統來對鳥類種類進行分類,給予其一張「蘋果」圖片,其應該能夠解釋輸入不是一隻鳥。如果給系統一張模糊的圖片,其應該能夠報告其無法識別圖像中的鳥,或者其識別具有非常低的置信度。
資料在可解釋AI中的作用
可解釋AI最重要的組成部分之一是資料。
根據Google的說法,關於數據和可解釋AI,「一個AI系統最好透過底層的訓練資料和訓練過程,以及產生的AI模型來理解。」這種理解依賴於將經過訓練的AI模型映射到用於訓練其精確資料集的能力,以及密切檢查資料的能力。
為了增強模型的可解釋性,重要的是要注意訓練資料。團隊應該確定用於訓練演算法的資料的來源、獲取資料的合法性和道德規範、資料中的任何潛在偏見,以及可以採取哪些措施來減輕任何偏見。
資料和XAI的另一個關鍵面向是,應該排除與系統無關的資料。為了實現這一點,不相關的資料必須不包含在訓練集或輸入資料中。
Google建議了一套實現可解釋性和問責制的做法:
- 計劃選擇以追求可解釋性
- 將可解釋性視為使用者體驗的核心部分
- 設計可解釋的模型
- 選擇指標以反映最終目標和最終任務
- 了解訓練過的模型
- #與模型使用者溝通解釋
- 進行大量測試,以確保AI系統按照預期工作
透過遵循這些建議的做法,組織可以確保實現可解釋AI。這對於當今環境中任何AI驅動的組織來說都是關鍵。
以上是在當今的人工智慧環境中,什麼是可解釋AI?的詳細內容。更多資訊請關注PHP中文網其他相關文章!