譯者| 李睿
#審校| 重樓
人工智慧(AI)和機器學習(ML)模型如今變得越來越複雜,這些模型產生的產出是黑盒子-無法向利害關係人解釋。可解釋性人工智慧(XAI)致力於透過讓利害關係人理解這些模型的工作方式來解決這個問題,確保他們理解這些模型實際上是如何做出決策的,並確保人工智慧系統中的透明度、信任度和問責制來解決這個問題。本文探討了各種可解釋性人工智慧(XAI)技術,以闡明它們的基本原理。
- 可解釋性人工智慧至關重要的幾個原因
- 信任度和透明度:為了讓人工智慧系統被廣泛接受和信任,使用者需要了解決策是如何做出的。
法規遵循:歐盟的《一般資料保護規範》(GDPR)等法律要求對影響個人的自動化決策做出解釋。
模型偵錯與改進:深入了解模型決策可以幫助開發人員識別和修正偏差或不準確之處。
可解釋性人工智慧的核心技術
智慧工人的可解釋性是指其技術模型可分為模型不可知方法和模型特定方法,每種方法都適用於不同類型的智慧工人模型和應用。
模型不可知方法
#(1)局部可解釋模型不可知論解釋(LIME)
局部可解釋模型不可知識解釋(LIME)是一項創新性的技術,旨在使人類可以理解複雜機器學習模型的預測。從本質上講,LIME的好處在於它的簡單性和解釋任何分類器或回歸器行為的能力,而不管其複雜性如何。 LIME透過在輸入資料的附近進行取樣,然後使用簡單模型(如線性迴歸模型)來近似原始複雜模型的預測。簡單模型會學習如何解釋複雜模型在特定輸入上的預測,以便可以理解複雜模型的決策過程。這樣,即使複雜模型是黑盒子,我們也可以透過簡單模型的解釋來
#LIME透過使用可解釋的模型在局部近似來闡明任何分類器或回歸器的預測。關鍵思想是擾動輸入資料並觀察預測如何變化,這有助於識別顯著影響預測的特徵。
在數學上,對於給定的實例\(x\)和模型\(f\),LIME產生一個新的樣本資料集,並使用\(f\)對它們進行標記。然後,它學習一個基於\(f\)的局部忠實於(f)的簡單模型(如線性模型),最小化以下目標:
\[ \xi(x) = \underset{g \in G}{\text{argmin}} \; L(f, g, \pi_x) + \Omega(g) \]其中\(L\)是衡量\(g\)在\(x\)周圍近似\(f\)時的不忠實程度,\(\pi_x\)是是定義\(x\)周圍局部鄰域的鄰近度量,並且\(\Omega\)懲罰\(g\)的複雜性。
(2)Shapley可加上##性愛解釋(SHAP)
S
hapley可加性解釋(SHAP)透過為特定預測的每個特徵分配重要值來幫助人們理解機器學習模型的輸出。想像一下,人們正試圖根據房子的大小、年限和地點等特徵來預測房子的價格。某些特徵可能會提高預期價格,而其他特徵可能會降低預期價格。相對於基線預測(資料集的平均預測),SHAP值有助於人們準確量化每個特徵對最終預測的貢獻。
特徵\(i\)的SHAP值定義為:##\[ \phi_i = \sum_{S \subseteq F \setminus \{i\}} \frac{|S|!(|F| - |S| - 1)!}{|F|!} [f_x(S \cup \{i\}) - f_x(S)] \]
#其中,\F\)是所有特徵的集合, \S\)是不包括\(i\)的特徵的子集,\(f_x(S)\)是特徵集\S\)的預測,總和是所有可能的特徵子集。此公式確保每個特徵的貢獻根據其對預測的影響進行公平分配。
特定於模型的方法
#(1)神經網路中的注意機制
###神經網路中的注意機制強調輸入資料中與做出預測最相關的部分。在序列到序列模型的場景中,目標時間步長\(t\)和源時間步長\(j\)的注意力權重\(\alpha_{tj}\)計算為:###### ############\[ \alpha_{tj} = \frac{\exp(e_{tj})}{\sum_{k=1}^{T_s} \exp(e_{tk })} \]############其中\(e_{tj}\)是評分函數,用於評估位置\(j\)的輸入和位置\(t\)的輸出之間的對齊情況,\(T_s\ )是輸入序列的長度。這種機制允許模型專注於輸入資料的相關部分,從而提高可解釋性。
(2)決策樹的視覺化
決策樹透過將決策表示為從輸入特徵派生的一系列規則來提供固有的可解釋性。決策樹的結構可以實現視覺化,節點表示基於特徵的決策,葉子表示結果。這種視覺化表示可以直接追蹤輸入特徵是如何導致特定預測的。
(3)實際實作與道德考量
實作可解釋的人工智慧需要仔細考慮模型類型、應用程式要求和解釋的目標受眾。在模型性能和可解釋性之間進行權衡也很重要。從道德上來說,確保人工智慧系統的公平性、問責制和透明度至關重要。可解釋性人工智慧的未來方向包括標準化解釋框架和繼續研究更有效的解釋方法。
結論
#可解釋性人工智慧對於解釋複雜的AI/ML模型,提供信任和確保其應用程式中的問責制至關重要。它利用了LIME、SHAP、注意力機制和決策樹視覺化等技術。隨著該領域的發展,更複雜和標準化的可解釋性人工智慧方法的開發對於解決軟體開發和法規遵循的不斷發展的需求將是至關重要的。
原文標題:#Explainable AI: Interpreting Complex AI/ML Model
以上是可解釋性人工智慧:解釋複雜的AI/ML模型的詳細內容。更多資訊請關注PHP中文網其他相關文章!

斯坦福大學以人為本人工智能研究所發布的《2025年人工智能指數報告》對正在進行的人工智能革命進行了很好的概述。讓我們用四個簡單的概念來解讀它:認知(了解正在發生的事情)、欣賞(看到好處)、接納(面對挑戰)和責任(弄清我們的責任)。 認知:人工智能無處不在,並且發展迅速 我們需要敏銳地意識到人工智能發展和傳播的速度有多快。人工智能係統正在不斷改進,在數學和復雜思維測試中取得了優異的成績,而就在一年前,它們還在這些測試中慘敗。想像一下,人工智能解決複雜的編碼問題或研究生水平的科學問題——自2023年

Meta的Llama 3.2:多模式和移動AI的飛躍 Meta最近公佈了Llama 3.2,這是AI的重大進步,具有強大的視覺功能和針對移動設備優化的輕量級文本模型。 以成功為基礎

本週的AI景觀:進步,道德考慮和監管辯論的旋風。 OpenAI,Google,Meta和Microsoft等主要參與者已經釋放了一系列更新,從開創性的新車型到LE的關鍵轉變

連接的舒適幻想:我們在與AI的關係中真的在蓬勃發展嗎? 這個問題挑戰了麻省理工學院媒體實驗室“用AI(AHA)”研討會的樂觀語氣。事件展示了加油

介紹 想像一下,您是科學家或工程師解決複雜問題 - 微分方程,優化挑戰或傅立葉分析。 Python的易用性和圖形功能很有吸引力,但是這些任務需要強大的工具

Meta's Llama 3.2:多式聯運AI強力 Meta的最新多模式模型Llama 3.2代表了AI的重大進步,具有增強的語言理解力,提高的準確性和出色的文本生成能力。 它的能力t

數據質量保證:與Dagster自動檢查和良好期望 保持高數據質量對於數據驅動的業務至關重要。 隨著數據量和源的增加,手動質量控制變得效率低下,容易出現錯誤。

大型機:AI革命的無名英雄 雖然服務器在通用應用程序上表現出色並處理多個客戶端,但大型機是專為關鍵任務任務而建立的。 這些功能強大的系統經常在Heavil中找到


熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

AI Hentai Generator
免費產生 AI 無盡。

熱門文章

熱工具

WebStorm Mac版
好用的JavaScript開發工具

MantisBT
Mantis是一個易於部署的基於Web的缺陷追蹤工具,用於幫助產品缺陷追蹤。它需要PHP、MySQL和一個Web伺服器。請查看我們的演示和託管服務。

SecLists
SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

VSCode Windows 64位元 下載
微軟推出的免費、功能強大的一款IDE編輯器

Atom編輯器mac版下載
最受歡迎的的開源編輯器