首頁  >  文章  >  科技週邊  >  如何讓人工智慧變得可解釋?

如何讓人工智慧變得可解釋?

王林
王林轉載
2023-04-08 20:31:01874瀏覽

如何讓人工智慧變得可解釋?

RegTech 公司Hawk: AI的技術長沃夫岡‧伯納(Wolfgang Berner)的表示,如果你真的可解釋性對於許多應用尤為關鍵。

伯納表示:「在反洗錢等嚴格監管的領域,考慮人工智慧的使用透明度和可解釋性是完全合適的。當AI的決策與原始數據過於脫節,以及演算法的工作方式當缺乏透明度時,人們就會對這種典型的「黑盒子AI」產生擔憂。」

Hawk AI認為,合規產業、信任和接受的關鍵在於高度的透明度。因此,對於該公司來說,對人工智慧可解釋性的需求遠遠超出了純粹的監管要求。

借助可理解的人工智慧,金融機構甚至可以對神經網路等複雜模型進行概覽和控制。對於 Hawk AI,可解釋性由兩個面向組成——人工智慧驅動的個人決策的理由是什麼?有助於人工智慧的演算法是如何開發的?

Hawk AI 表示:「對於Hawk AI 來說,這很清楚——只有技術上可以解釋的,最終才會被接受。決策的確切標準或某些風險的統計機率以及演算法的組成與AI 決策過程的完整文件一樣重要。同樣重要的是,所有這些都以清晰易懂的語言而不是純粹的技術術語來表達。」

#該公司認為,每個細節和每個資料來源都必須是可驗證的-例如,與特定同業組相比,某些值是顯著高還是低。為什麼人工智慧假設某些預期值以及這些值如何相互關聯,必須是透明的。數據情況必須非常清楚,以至於合規官會使用相同的數據做出相同的決定。

此外,一致的回饋和驗證流程有助於不斷改進決策——因此,人工智慧直接從合規團隊的決策中學習,並可以在未來更好地支持他們。

Hawk 提到,AI 不僅在應用之初必須是透明的——因為它透過接觸新數據來獨立改進,還需要能夠理解這樣的最佳化。為此,該公司聲稱 AI 的每個變更過程也都記錄在軟體中,並且需要明確的批准。因此,如果沒有合規團隊能夠理解和控制它,人工智慧就永遠不會進化。

Hawk AI 總結道:「AI 反洗錢已經準備就緒——有了Hawk AI,它是透明且安全的。由於這些原因,Hawk AI 談到了與人工智慧相關的「白盒AI” ,與「黑盒AI」相比,其技術對於合規團隊來說是完全可以理解的。因此,我們的軟體提供了完全的控制和安全性。人工智慧在金融領域的應用正在徹底改變打擊金融犯罪的鬥爭。

「技術驅動的反洗錢不僅在效率和有效性方面明顯超越了傳統系統,而且由於它能夠從犯罪行為模式中學習,因此特別具有前瞻性。因此,從長遠來看,使用人工智慧打擊金融犯罪將成為行業標準。多年來,該技術已在實踐中得到驗證。即使在非常大的金融機構中,它今天已經在使用,或至少在第一批試點中已經建立。 」

Hawk AI 已與推動金融和零售互聯商務的領導者 Diebold Nixdorf 合作,以擴大前者的 AML 解決方案的覆蓋範圍。

以上是如何讓人工智慧變得可解釋?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除