首頁  >  文章  >  科技週邊  >  如何確保人工智慧實施的道德部署?

如何確保人工智慧實施的道德部署?

王林
王林轉載
2023-04-15 10:16:02660瀏覽

如何確保人工智慧實施的道德部署?

自動化和機器技術(如人工智慧和機器學習)的顯著增長無疑為以組織帶來了全新的規模和服務水平。

我們可能都期望人工智慧的優勢之一是有機會消除人為主導的偏見並改善對少數群體的歧視。然而,如果管理不善,人工智慧可以透過在其演算法中嵌入偏見來進一步強化歧視。

今天,機器通常會決定我們是否有資格獲得抵押貸款或受到執法機構或尋求打擊詐欺的保險公司的監視。他們的影響力甚至延伸到決定您在網路上看到哪些廣告——包括高薪職位的招聘廣告。

有許多組織的自動化系統中的人工智慧沒有得到很好的記錄或理解。是時候讓自動化決策走出陰影並承擔責任了。

當自動化決策直接或間接影響人們的生活,並且機器可能以有害的方式進行歧視時,企業組織必須站起來,注意並採取行動,以確保盡可能合乎道德地實施人工智慧。

第一步

企業和政府組織都應該努力獲得最高水準的保護,以免受他們部署的任何機器技術的傷害。在任何自動化專案開始時,組織必須進行法律、隱私和道德影響評估,以確認風險已被充分理解並且可以得到令人滿意的緩解。這也確保選擇最合適的解決方案來建立可接受的風險水平,同時提供價值。

這些評估的簽署應由一個多學科的客觀審查小組進行,該小組對專案的任何問題方面擁有否決權,包括部署方式、自動化水平和追索機會。部署必須是資料/技術團隊和業務領導團隊之間的協作過程,以在數據和分析中實施最佳實踐道德規範。

部署

監察員報告中概述了有關設計和實施機器技術的良好做法的一些強有力的建議。儘管如此,我們認為所有組織都有義務至少考慮以下最佳實踐:

  • 公平、透明、非惡意、隱私、尊重自主權和問責制的倫理考慮要求任何實施任何機器技術的組織都必須確保其對所有受影響群體的執行達到最高水平的準確性;
  • 有一種機制可以根據模型或系統的輸出來解釋任何決策;
  • 有檢測和減輕有害結果的流程
  • 人們可以給予知情同意以參與該過程
  • 有機制來質疑任何被認為是不公正的結果。

任何機器技術的開發和部署都應該是迭代的,首先是根據歷史資料對準確性進行倫理審查,確保整個樣本群體的性能保持一致。如果某些組別的表現明顯較差,則必須尋找更多數據以確保所有組別的充分代表性。

在識別有害後果的風險時,部署應該同樣是迭代和謹慎的,從人在環解決方案開始,以確保在獲得對模型或系統性能的信心的同時進行人工監督。

這並不是說人類的決策過程是萬無一失的。它只是提供了一個在部署前了解和詢問輸出的機會。此過程應與最受信任的操作員一起完成,以減少將人為偏見重新引入該過程的可能性。此外,參與過程的每個人都應該進行無意識的偏見培訓。

一旦投入生產,任何機器技術的持續精度和性能都必須持續測量和監控。與現有 KPI 一起,該績效應在整個組織中可報告和可見。

審查

任何實施演算法決策的組織都需要有一個客觀的倫理審查過程,包括定量和定性的考慮。應根據這些道德指標監控模型性能,以了解少數群體的性能異常以及性能隨時間的任何變化。然後,作為營運過程的一部分,該模型可以持續進行調整和調整。

雖然實施似乎令人生畏,但組織必須在其人工智慧和機器學習專案中提高對道德考慮的理解和實施。企業應採用「問題-審查-衡量-改進」的方法來管理其自動化決策的績效和影響,以確保道德結果。

以上是如何確保人工智慧實施的道德部署?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除