首頁  >  文章  >  科技週邊  >  是否有可能讓人工智慧變得更加透明?

是否有可能讓人工智慧變得更加透明?

王林
王林轉載
2023-04-14 10:58:02667瀏覽

是否有可能讓人工智慧變得更加透明?

為了讓人工智慧在道德上更加合理和實用,增強深度神經網路的可解釋性是至關重要的。

人工智慧工作的透明度可能會讓那些將該技術融入日常營運的組織感到頭痛。那麼,該如何做才能消除對可解釋人工智慧需求的擔憂呢?

人工智慧在任何行業的深遠優勢都是眾所周知的。我們意識到這項技術是如何幫助世界各地成千上萬的企業加快他其營運速度,並使之更有想像地使用員工。此外,人工智慧的長期成本和資料安全效益也被一些技術專欄作家和部落客無數地記錄下來。不過,人工智慧確實存在相當多的問題。其中一個問題是,這項技術的決策有時令人懷疑。但更重要的是,更大的問題是,當人工智慧驅動的系統出現令人尷尬或災難性的錯誤時,都會略微缺乏可解釋性。

人類每天都會犯錯。然而,我們清楚地知道錯誤是如何產生的。可以採取一系列明確的糾正措施,以避免今後重蹈覆轍。然而,AI的一些錯誤是無法解釋的,因為資料專家不知道演算法是如何在操作過程中得出特定結論的。因此,對於計劃將該技術應用到日常工作中的組織和已經將其納入其中的組織來說,可解釋的人工智慧應該是首要優先考慮的問題。

讓人工智慧變得可解釋的原因

關於人工智慧的一個常見謬誤是,它完全不會犯錯。神經網絡,尤其是在其早期階段,可能會出錯。同時,這些網路以非透明的方式執行其命令。如前所述,人工智慧模型到達特定結論的路徑在操作過程中的任何時刻都不明確。因此,即使是經驗豐富的數據專家,也幾乎不可能解釋這樣的錯誤。

人工智慧的透明度問題在醫療保健行業尤為突出。試想這個例子:一家醫院有一個神經網路或一個黑盒子AI模型,用於診斷病人的腦部疾病。此智慧型系統經過訓練,可以從過去的記錄和患者現有的醫療文件中找到資料模式。使用預測分析,如果模型預測物件在未來容易患上與大腦相關的疾病,那麼預測背後的原因通常不是百分之百清楚。對於私人和公共機構來說,以下是讓人工智慧工作更加透明的4個主要原因:

1、問責

如前所述,利害關係人需要知道AI模型決策過程背後的內部運作和推理邏輯,特別是對於意外的建議和決定。一個可解釋的人工智慧系統可以確保演算法在未來做出公平和道德的建議和決定。這可以提高組織內部人工智慧神經網路的合規性和信任度。

2、更大的控制權

可解釋的人工智慧通常可以防止工作作業中發生系統錯誤。關於人工智慧模型現有弱點的更多知識可用於消除它們。因此,組織可以更好地控制AI系統提供的輸出。

3、改進

眾所周知,人工智慧模型和系統需要不時地進行持續改進。可解釋的人工智慧演算法將在定期的系統更新過程中變得更加智慧。

4、新發現

新的資訊線索將使人類能夠發現當前時代重大問題的解決方案,如治療HIV AIDS的藥物或療法、處理注意力缺陷障礙的方法。更重要的是,這些發現將有確鑿的證據和普遍核查的理由作為支持。

在人工智慧驅動的系統中,透明度可以以人類可以理解的自然語言的分析語句的形式顯示,突出顯示用於製定輸出決策的數據的可視化、顯示支持給定決策的點的案例,或突出顯示系統拒絕其他決策的原因的語句。

近年來,可解釋人工智慧領域已經發展和擴展了。最重要的是,如果這種趨勢在未來繼續下去,那麼企業將能夠使用可解釋的人工智慧來提高其產出,同時了解每個由人工智慧支援的關鍵決策背後的基本原理。

雖然這些是人工智慧需要更透明的原因,但仍有一些障礙阻止了同樣的事情發生。其中一些障礙包括:

人工智慧責任悖論

眾所周知,可解釋的人工智慧可以提高人工智慧系統的公平性、信任度和合法性等面向。然而,一些組織可能不太熱衷於增加其智慧系統的責任感,因為可解釋的人工智慧可能會帶來一系列問題。其中一些問題是:

竊取AI模型運行的重要細節。

由於對系統漏洞的了解增加,外部實體的網路攻擊威脅。

除此之外,許多人認為,在人工智慧系統中揭露和揭露機密決策資料會使組織容易受到訴訟或監管行動的影響。

為了不受這種「透明度悖論」的影響,企業必須考慮與可解釋人工智慧相關的風險與其明顯的好處。企業必須有效管理這些風險,同時確保可解釋的人工智慧系統產生的資訊不會被淡化。

此外,企業必須明白兩件事:首先,讓人工智慧透明化的相關成本不應阻止其整合此類系統。企業必須制定風險管理計劃,以適應可解釋的模型,使其提供的關鍵資訊保持機密。其次,企業必須改進其網路安全框架,以偵測和消除可能導致資料外洩的漏洞和網路威脅。

人工智慧的黑盒子問題

深度學習是人工智慧不可或缺的一部分。深度學習模型和神經網路通常以無監督的方式進行訓練。深度學習神經網路是人工智慧的關鍵組成部分,涉及圖像識別和處理、高級語音識別、自然語言處理和系統翻譯。不幸的是,雖然與常規機器學習模型相比,這種AI組件可以處理更複雜的任務,但深度學習也會在日常操作和任務中引入黑盒子問題。

如所知,神經網路可以複製人腦的工作。人工神經網路的結構是模仿真實的神經網路。神經網路是由幾層相互連接的節點和其他「隱藏」層創建的。雖然這些神經節點執行基本的邏輯和數學運算來得出結論,但也足夠聰明和直觀,可以處理歷史資料並從中產生結果。真正複雜的操作涉及多個神經層和數十億個數學變數。因此,從這些系統產生的輸出幾乎沒有機會得到組織中的AI專家的全面驗證和確認。

Deloitte和Google等組織正在致力於創建工具和數位應用程序,這些工具和應用程式可以衝破黑盒子,揭示用於做出關鍵人工智慧決策的數據,以提高智慧系統的透明度。

為了讓人工智慧更負責任,組織必須重新設想其現有的人工智慧治理策略。以下是改善治理可以減少基於透明度的人工智慧問題的一些關鍵領域。

系統設計

在初始階段,組織可以在建立AI系統和訓練神經網路時優先考慮信任和透明度。密切關注人工智慧服務提供者和供應商如何設計人工智慧網絡,可以提醒組織中的關鍵決策者有關AI模型的能力和準確性的早期問題。透過這種方式,在系統設計階段有一個實際操作的方法可以揭示一些AI基於透明度的問題,供組織觀察。

合規

隨著世界各地的人工智慧法規在人工智慧責任方面變得越來越嚴格,組織可以從使其AI模型和系統符合這些規範和標準中真正受益。組織必須推動其人工智慧供應商創建可解釋的人工智慧系統。為了消除人工智慧演算法中的偏見,企業可以接觸基於雲端的服務供應商,而不是聘請昂貴的資料專家和團隊。組織必須透過明確指示雲端服務提供者在其工作場所安裝和實施AI系統期間勾選所有與合規相關的方框,來減輕合規負擔。除了這些要點之外,組織還可以在其AI治理計劃中包含隱私和資料安全等方面的要點。

自世紀之交以來,我們取得了一些最令人震驚的技術進步,其中包括人工智慧和深度學習。幸運的是,儘管100%可解釋的人工智慧還不存在,但人工智慧驅動的透明系統的概念並不是一個無法實現的夢想。這取決於實施這些系統的組織如何改善其人工智慧治理,並為實現這一目標承擔風險。

以上是是否有可能讓人工智慧變得更加透明?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除