首頁  >  文章  >  科技週邊  >  聊一聊可解釋的反詐騙AI

聊一聊可解釋的反詐騙AI

WBOY
WBOY轉載
2023-04-11 20:46:121723瀏覽

聊一聊可解釋的反詐騙AI

近年來,人工智慧飛速發展,並作為強大的創新工具廣泛應用於各行各業的無數用例中。然而,巨大的責任通常需要巨大的能力。多虧了AI和機器學習,反詐欺技術變得愈加精確並且比以往發展地更加快速。即時的評分技術可以使商業領導立即分辨出詐欺行為。然而,AI-ML驅動決策的使用也引起了對透明度的關注。並且,當ML模型出現在高風險環境時,可解釋性的需求也就出現了。

隨著機器製定的關鍵決策的數量不斷增加,可解釋性和可理解性也變得越來越重要。技術研究員Tim Miller表示:可理解性是人類能夠理解決策原因的程度。因此,發展ML模型的可解釋性是至關重要的,它有助於可信自動化解決方案的發展。

開發人員、消費者以及領導者都應該了解防詐騙決策的意義和過程。但是參數稍微多一點的ML模型對大部分人來說是都難以理解的。然而,可解釋AI研究社群一再聲明:由於可理解性工具的發展,黑盒模型不再是黑盒。在這些工具的幫助下,使用者能夠理解並更加信任這些用來做出重要決策的ML模型。

事物的SHAP

SHAP (SHapley Additive exPlanations) 是現今最常使用的模式不可知論解釋工具之一。它從合作賽局計算Sharply值,均勻分擔特徵的影響。當我們基於表格資料並使用整合方法來打擊詐欺時,SHAP的TreeExplainer演算法提供了在多項式時間裡獲得的局部解釋的機會。使用這種工具,僅有近似值也是可行的。與基於神經網路的解釋相比,這是一個巨大的進展。

白盒子通常是指計算詐欺程度分數的規則引擎。就本質而言,黑盒和白盒得出的結果不同,因為黑盒是根據機器從資料中學習的內容得出結果,而白盒是根據預先定義的規則來得出分數。我們可以根據這些差異來雙向發展。例如,根據黑盒模型發現的詐欺環來調整規則。

黑盒測試與SHAP結合,可以幫助我們理解該模型的全局行為,並揭示該模型用於檢測詐欺活動的主要特徵。同時,也可以揭示該模型中的不良偏差。例如,某個模型可能會歧視特定的人口統計。它可以透過全局模型解釋來檢測此類情況,從而防止不準確預測的出現。

此外,它還可以幫助我們理解模型所做的單一預測。在ML模型調試的過程中,資料科學工作者可以獨立地觀察每個預測,並以此來解釋它。它的特徵貢獻可以幫助我們察覺模型正在做什麼,我們可以從這些輸入中進行進一步的開發。透過利用SHAP,最終用戶不僅可以獲得模型的基本特徵,還可以了解每個特徵(在哪個方向)是如何影響模型輸出詐欺機率的。

置信係數

最後,在SHAP的幫助下,透過取得對成功模式的信任,置信可以從客戶那裡獲得。一般來說,如果我們理解一個產品是如何運作的,那麼我們就會對它更有信心。人們不喜歡自己不理解的東西。在解釋工具的幫助下,我們可以查看黑盒,更好地理解和信任它。並且,透過理解模型,我們也可以對它進行不斷的改進。

可解釋的增強器(EBM)是使用SHAP梯度增強ML模型的替代方案。這是InterpretML(微軟的人工智慧公司)的旗艦產品,是所謂的玻璃盒。玻璃盒子這個名字來自於這樣一個事實:由於它的結構,它的本質是可解釋的。根據原始文檔,「EBM通常與最先進的黑盒模型一樣準確,同時也保持完全的可解釋性。雖然EBM的訓練速度比其他現代演算法慢,但它在預測時,卻非常的緊湊和快速。 」局部可解釋的模型-模型不可知解釋(LIME)也是一個可以用來進行黑盒解釋的好工具。然而,它更受非結構化資料模型的歡迎。 

透過利用上述工具以及透明的數據點,組織可以放心地做出決策。所有的利害關係人必須知道他們的工具是如何得出最佳結果的。了解黑盒ML以及與之結合的各種技術可以幫助組織更好地了解它們是如何得出結果,從而幫助實現業務目標的。

評論

對於人來類說,未知的往往是可怕的,更是不可信任的。 AI-ML驅動決策的演算法模型正如一個“黑盒子”,我們只能了解結構,卻無法洞察其運行原理,更無法判斷其給出結果的可靠性。尤其是在防詐騙領域這種高風險環境中,AI及ML技術的應用變得更加困難。而可解釋性工具的引入,使得「黑盒」逐漸變得透明,很大程度上打消了用戶的懷疑與擔憂,同時也為「黑盒」本身的發展創造了條件。

以上是聊一聊可解釋的反詐騙AI的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除