首頁  >  文章  >  科技週邊  >  專家視點:沒有監管的AI會產生倫理偏見

專家視點:沒有監管的AI會產生倫理偏見

WBOY
WBOY轉載
2023-04-09 14:21:12871瀏覽

透明度通常在道德商業困境中發揮關鍵作用——我們擁有的資訊越多,就越容易確定什麼是可接受的和不可接受的結果。如果財務錯位,誰犯了會計錯誤?如果數據被洩露,誰負責保護數據,他們的行為是否正確?

專家視點:沒有監管的AI會產生倫理偏見

但是,當我們尋找錯誤或問題的明確來源並且找不到人時會發生什麼?這就是人工智慧提出獨特的道德考慮的地方。

人工智慧在組織中顯示出巨大的潛力,但它在很大程度上仍然是一種正在尋找問題的解決方案。這是一個被誤解的概念,實際應用尚未在企業內完全實現。再加上許多公司缺乏以真正轉型的方式應用人工智慧的預算、人才和遠見,人工智慧仍遠未達到臨界規模,也容易被濫用。

但僅僅因為人工智慧在日常業務中可能不是超可見的,並不意味著它在您的組織內的某個地方沒有發揮作用。就像商業中的許多其他道德兩難一樣,人工智慧中的道德失誤經常發生在陰暗處。無論有意與否,人工智慧專案或應用打破道德界線的​​後果可能是噩夢。避免人工智慧中的道德失誤的關鍵是從一開始就對專案進行公司治理。

以透明和信任建立人工智慧

到目前為止,我們都熟悉 AI 出錯的流行範例。對於深色皮膚的顧客無法正常運作的皂液器,對白種人來說更準確的脈搏血氧儀,甚至預測罪犯是否會重新入獄的演算法,都是人工智慧(可以說是無意中)存在偏見的故事。

這些情況不僅會引起糟糕的頭條新聞和社交媒體的強烈反對,而且還會破壞更合法的人工智慧用例,如果繼續以不信任的態度看待這項技術,這些用例將無法實現。例如,僅在醫療保健領域,人工智慧就有可能改善癌症診斷並標記高風險再次入院的患者以獲得額外支援。除非我們學會建立人們對人工智慧的信任,否則我們不會看到這些強大解決方案的全部好處。

當我與同行和商業領袖談論人工智慧時,我從一開始就支持人工智慧工作中的透明度和治理理念。更具體地說,這是我的建議:

1、道德人工智慧不可能在真空中發生

如果實施不當,人工智慧應用可能會產生重大的連鎖反應。當單一部門或 IT 團隊開始在沒有監督的情況下嘗試 AI 驅動的流程時,通常會發生這種情況。如果他們的實驗出錯,團隊是否意識到可能發生的倫理影響?部署是否符合公司現有的資料保留和存取策略?沒有監督,很難回答這些問題。

而且,如果沒有治理,如果確實發生了道德失誤,那麼召集糾正道德失誤所需的利害關係人可能會更加困難。監督不應被視為對創新的壁壘,而是一項必要的檢查,以確保人工智慧在一定的道德範圍內運作。監督最終應該落在擁有他們的組織中的首席資料官,或者如果 CDO 角色不存在,則由首席資訊長負責。

2、始終有計劃

我們看到的關於AI 項目出現問題的最糟糕的頭條新聞通常有一個共同點,即處於其中的公司在出現問題時不准備回答問題或解釋決策。監督可以解決這個問題。當組織的最高層存在對 AI 的理解和健康哲學時,就不太可能因問題而措手不及。

3、盡職調查和測試是強制性的

透過更多的耐心和更多的測試,許多人工智慧偏見的經典例子都可以得到緩解。就像洗手液分配器的例子一樣,一家公司展示其新技術的興奮最終適得其反。在產品公開發布之前,進一步的測試可能會發現這種偏見。此外,任何人工智慧應用程式都需要從一開始就進行嚴格審查。由於人工智慧的複雜性和不確定的潛力,必須策略性地謹慎使用它。

4、考慮人工智慧監督功能

為了保護客戶隱私,金融機構投入大量資源管理對敏感文件的存取。他們的記錄團隊仔細分類資產並建立基礎設施,以確保只有正確的工作角色和部門才能看到每一個。這種結構可以作為建構組織人工智慧治理功能的範本。一個專門的團隊可以估計人工智慧應用程式的潛在積極或消極影響,並確定需要多久審查一次其結果以及由誰來審查。

對於尋求數位顛覆的企業來說,試驗人工智慧是重要的下一步。它將人類工作者從平凡的任務中解放出來,並使某些活動(如圖像分析)能夠以以前在財務上並不謹慎的方式進行擴展。但這不能掉以輕心。人工智慧應用必須在適當的監督下仔細開發,以避免偏見、道德上有問題的決定和糟糕的業務結果。確保對組織內的 AI 工作進行了正確的訓練。最嚴重的道德失誤往往發生在黑暗處。

以上是專家視點:沒有監管的AI會產生倫理偏見的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:51cto.com。如有侵權,請聯絡admin@php.cn刪除