搜尋
首頁科技週邊人工智慧是否有可能讓人工智慧變得更加透明?

是否有可能讓人工智慧變得更加透明?

Apr 14, 2023 am 10:58 AM
人工智慧ai

是否有可能讓人工智慧變得更加透明?

為了讓人工智慧在道德上更加合理和實用,增強深度神經網路的可解釋性是至關重要的。

人工智慧工作的透明度可能會讓那些將該技術融入日常營運的組織感到頭痛。那麼,該如何做才能消除對可解釋人工智慧需求的擔憂呢?

人工智慧在任何行業的深遠優勢都是眾所周知的。我們意識到這項技術是如何幫助世界各地成千上萬的企業加快他其營運速度,並使之更有想像地使用員工。此外,人工智慧的長期成本和資料安全效益也被一些技術專欄作家和部落客無數地記錄下來。不過,人工智慧確實存在相當多的問題。其中一個問題是,這項技術的決策有時令人懷疑。但更重要的是,更大的問題是,當人工智慧驅動的系統出現令人尷尬或災難性的錯誤時,都會略微缺乏可解釋性。

人類每天都會犯錯。然而,我們清楚地知道錯誤是如何產生的。可以採取一系列明確的糾正措施,以避免今後重蹈覆轍。然而,AI的一些錯誤是無法解釋的,因為資料專家不知道演算法是如何在操作過程中得出特定結論的。因此,對於計劃將該技術應用到日常工作中的組織和已經將其納入其中的組織來說,可解釋的人工智慧應該是首要優先考慮的問題。

讓人工智慧變得可解釋的原因

關於人工智慧的一個常見謬誤是,它完全不會犯錯。神經網絡,尤其是在其早期階段,可能會出錯。同時,這些網路以非透明的方式執行其命令。如前所述,人工智慧模型到達特定結論的路徑在操作過程中的任何時刻都不明確。因此,即使是經驗豐富的數據專家,也幾乎不可能解釋這樣的錯誤。

人工智慧的透明度問題在醫療保健行業尤為突出。試想這個例子:一家醫院有一個神經網路或一個黑盒子AI模型,用於診斷病人的腦部疾病。此智慧型系統經過訓練,可以從過去的記錄和患者現有的醫療文件中找到資料模式。使用預測分析,如果模型預測物件在未來容易患上與大腦相關的疾病,那麼預測背後的原因通常不是百分之百清楚。對於私人和公共機構來說,以下是讓人工智慧工作更加透明的4個主要原因:

1、問責

如前所述,利害關係人需要知道AI模型決策過程背後的內部運作和推理邏輯,特別是對於意外的建議和決定。一個可解釋的人工智慧系統可以確保演算法在未來做出公平和道德的建議和決定。這可以提高組織內部人工智慧神經網路的合規性和信任度。

2、更大的控制權

可解釋的人工智慧通常可以防止工作作業中發生系統錯誤。關於人工智慧模型現有弱點的更多知識可用於消除它們。因此,組織可以更好地控制AI系統提供的輸出。

3、改進

眾所周知,人工智慧模型和系統需要不時地進行持續改進。可解釋的人工智慧演算法將在定期的系統更新過程中變得更加智慧。

4、新發現

新的資訊線索將使人類能夠發現當前時代重大問題的解決方案,如治療HIV AIDS的藥物或療法、處理注意力缺陷障礙的方法。更重要的是,這些發現將有確鑿的證據和普遍核查的理由作為支持。

在人工智慧驅動的系統中,透明度可以以人類可以理解的自然語言的分析語句的形式顯示,突出顯示用於製定輸出決策的數據的可視化、顯示支持給定決策的點的案例,或突出顯示系統拒絕其他決策的原因的語句。

近年來,可解釋人工智慧領域已經發展和擴展了。最重要的是,如果這種趨勢在未來繼續下去,那麼企業將能夠使用可解釋的人工智慧來提高其產出,同時了解每個由人工智慧支援的關鍵決策背後的基本原理。

雖然這些是人工智慧需要更透明的原因,但仍有一些障礙阻止了同樣的事情發生。其中一些障礙包括:

人工智慧責任悖論

眾所周知,可解釋的人工智慧可以提高人工智慧系統的公平性、信任度和合法性等面向。然而,一些組織可能不太熱衷於增加其智慧系統的責任感,因為可解釋的人工智慧可能會帶來一系列問題。其中一些問題是:

竊取AI模型運行的重要細節。

由於對系統漏洞的了解增加,外部實體的網路攻擊威脅。

除此之外,許多人認為,在人工智慧系統中揭露和揭露機密決策資料會使組織容易受到訴訟或監管行動的影響。

為了不受這種「透明度悖論」的影響,企業必須考慮與可解釋人工智慧相關的風險與其明顯的好處。企業必須有效管理這些風險,同時確保可解釋的人工智慧系統產生的資訊不會被淡化。

此外,企業必須明白兩件事:首先,讓人工智慧透明化的相關成本不應阻止其整合此類系統。企業必須制定風險管理計劃,以適應可解釋的模型,使其提供的關鍵資訊保持機密。其次,企業必須改進其網路安全框架,以偵測和消除可能導致資料外洩的漏洞和網路威脅。

人工智慧的黑盒子問題

深度學習是人工智慧不可或缺的一部分。深度學習模型和神經網路通常以無監督的方式進行訓練。深度學習神經網路是人工智慧的關鍵組成部分,涉及圖像識別和處理、高級語音識別、自然語言處理和系統翻譯。不幸的是,雖然與常規機器學習模型相比,這種AI組件可以處理更複雜的任務,但深度學習也會在日常操作和任務中引入黑盒子問題。

如所知,神經網路可以複製人腦的工作。人工神經網路的結構是模仿真實的神經網路。神經網路是由幾層相互連接的節點和其他「隱藏」層創建的。雖然這些神經節點執行基本的邏輯和數學運算來得出結論,但也足夠聰明和直觀,可以處理歷史資料並從中產生結果。真正複雜的操作涉及多個神經層和數十億個數學變數。因此,從這些系統產生的輸出幾乎沒有機會得到組織中的AI專家的全面驗證和確認。

Deloitte和Google等組織正在致力於創建工具和數位應用程序,這些工具和應用程式可以衝破黑盒子,揭示用於做出關鍵人工智慧決策的數據,以提高智慧系統的透明度。

為了讓人工智慧更負責任,組織必須重新設想其現有的人工智慧治理策略。以下是改善治理可以減少基於透明度的人工智慧問題的一些關鍵領域。

系統設計

在初始階段,組織可以在建立AI系統和訓練神經網路時優先考慮信任和透明度。密切關注人工智慧服務提供者和供應商如何設計人工智慧網絡,可以提醒組織中的關鍵決策者有關AI模型的能力和準確性的早期問題。透過這種方式,在系統設計階段有一個實際操作的方法可以揭示一些AI基於透明度的問題,供組織觀察。

合規

隨著世界各地的人工智慧法規在人工智慧責任方面變得越來越嚴格,組織可以從使其AI模型和系統符合這些規範和標準中真正受益。組織必須推動其人工智慧供應商創建可解釋的人工智慧系統。為了消除人工智慧演算法中的偏見,企業可以接觸基於雲端的服務供應商,而不是聘請昂貴的資料專家和團隊。組織必須透過明確指示雲端服務提供者在其工作場所安裝和實施AI系統期間勾選所有與合規相關的方框,來減輕合規負擔。除了這些要點之外,組織還可以在其AI治理計劃中包含隱私和資料安全等方面的要點。

自世紀之交以來,我們取得了一些最令人震驚的技術進步,其中包括人工智慧和深度學習。幸運的是,儘管100%可解釋的人工智慧還不存在,但人工智慧驅動的透明系統的概念並不是一個無法實現的夢想。這取決於實施這些系統的組織如何改善其人工智慧治理,並為實現這一目標承擔風險。

以上是是否有可能讓人工智慧變得更加透明?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述
本文轉載於:51CTO.COM。如有侵權,請聯絡admin@php.cn刪除
人工智能治療師在這裡:您需要了解的14個開創性的心理健康工具人工智能治療師在這裡:您需要了解的14個開創性的心理健康工具Apr 30, 2025 am 11:17 AM

儘管它無法提供訓練有素的治療師的人類聯繫和直覺,但研究表明,許多人很樂意與相對無面和匿名的AI機器人分享他們的擔憂和擔憂。 這是否總是好我

叫AI到雜貨店過道叫AI到雜貨店過道Apr 30, 2025 am 11:16 AM

人工智能(AI)是一種技術數十年的技術,正在徹底改變食品零售業。 從大規模的效率提高和成本降低到精簡的各種業務功能的流程,AI的影響是Undeniabl

從生成的AI中進行佩普談話來提升您的精神從生成的AI中進行佩普談話來提升您的精神Apr 30, 2025 am 11:15 AM

讓我們來談談。 對創新的AI突破的分析是我正在進行的AI中正在進行的《福布斯》列覆蓋範圍的一部分,包括識別和解釋各種有影響力的AI複雜性(請參閱此處的鏈接)。此外,對於我的comp

為什麼AI驅動的超個性化是所有企業必須的為什麼AI驅動的超個性化是所有企業必須的Apr 30, 2025 am 11:14 AM

保持專業形象需要偶爾的衣櫃更新。 在線購物方便時,它缺乏面對面嘗試的確定性。 我的解決方案? AI驅動的個性化。 我設想AI助手策劃服裝Selecti

忘記Duolingo:Google Translate的新AI功能教授語言忘記Duolingo:Google Translate的新AI功能教授語言Apr 30, 2025 am 11:13 AM

谷歌翻譯新增語言學習功能 據Android Authority報導,應用專家AssembleDebug發現,最新版本的谷歌翻譯應用包含一個新的“練習”模式的測試代碼,旨在幫助用戶通過個性化活動來提高他們的語言技能。此功能目前對用戶不可見,但AssembleDebug能夠部分激活它並查看其一些新的用戶界面元素。 激活後,該功能會在屏幕底部添加一個新的“畢業帽”圖標,標有“Beta”徽章,表明“練習”功能最初將以實驗形式發布。 相關的彈出提示顯示“練習為你量身定制的活動!”,這意味著谷歌將生成定制的

他們正在為AI製作TCP/IP,這就是Nanda他們正在為AI製作TCP/IP,這就是NandaApr 30, 2025 am 11:12 AM

麻省理工學院的研究人員正在開發Nanda,這是為AI代理設計的開創性的Web協議。 Nanda的縮寫是網絡代理和分散的AI,通過添加Internet功能,使AI Agen能夠構建人類的模型上下文協議(MCP)。

提示:DeepFake檢測是一項蓬勃發展的業務提示:DeepFake檢測是一項蓬勃發展的業務Apr 30, 2025 am 11:11 AM

Meta的最新冒險:與Chatgpt競爭的AI應用程序 Facebook,Instagram,WhatsApp和Threads的母公司Meta正在啟動新的AI功能應用程序。 這個獨立的應用程序Meta AI旨在直接與Openai的Chatgpt競爭。 槓桿

接下來的兩年在AI網絡安全方面為業務領導者接下來的兩年在AI網絡安全方面為業務領導者Apr 30, 2025 am 11:10 AM

導航AI網絡攻擊的上升潮流 最近,CISO的傑森·克林頓(Jason Clinton)擬人化,強調了與非人類身份相關的新興風險 - 作為機器對機器的通信增殖,維護這些“身份”

See all articles

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

EditPlus 中文破解版

EditPlus 中文破解版

體積小,語法高亮,不支援程式碼提示功能

PhpStorm Mac 版本

PhpStorm Mac 版本

最新(2018.2.1 )專業的PHP整合開發工具

SecLists

SecLists

SecLists是最終安全測試人員的伙伴。它是一個包含各種類型清單的集合,這些清單在安全評估過程中經常使用,而且都在一個地方。 SecLists透過方便地提供安全測試人員可能需要的所有列表,幫助提高安全測試的效率和生產力。清單類型包括使用者名稱、密碼、URL、模糊測試有效載荷、敏感資料模式、Web shell等等。測試人員只需將此儲存庫拉到新的測試機上,他就可以存取所需的每種類型的清單。

Safe Exam Browser

Safe Exam Browser

Safe Exam Browser是一個安全的瀏覽器環境,安全地進行線上考試。該軟體將任何電腦變成一個安全的工作站。它控制對任何實用工具的訪問,並防止學生使用未經授權的資源。

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境