人工智慧系統和人工智慧專案如今變得越來越普遍,因為企業可以利用這種新興技術的力量來自動化決策和提高效率。
如果企業正在實施一個大規模的人工智慧項目,那麼應該如何準備?以下是與人工智慧相關的三個最重要的風險,以及如何預防和減輕它們。
人們都很關注自己的隱私,而臉部辨識人工智慧在某些方面正在迅速發展,引發了關於隱私和監控的倫理擔憂。例如,這項技術可以讓企業在未經用戶同意的情況下追蹤用戶的行為,甚至是情緒。美國政府最近提出了一項“人工智慧權利法案”,以防止人工智慧技術造成與核心價值相反的真正傷害,包括基本的隱私權。
IT領導者需要讓使用者知道正在收集什麼數據,並獲得使用者的同意。除此之外,關於資料集的適當培訓和實施對於防止資料外洩和潛在的安全漏洞至關重要。
測試人工智慧系統以確保它實現目標,而不會產生意想不到的影響,例如允許駭客使用虛假的生物識別資料存取敏感資訊。實施人工智慧系統的監督,可以使企業在必要時停止或撤銷它的行動。
許多使用機器學習的人工智慧系統是不透明的,這意味著不清楚它們是如何做出決定的。例如,對抵押貸款數據廣泛的研究表明,用於批准或拒絕貸款的預測性人工智慧工具對少數族裔申請者的準確性較低。技術的不透明性侵犯了貸款被拒絕的申請者的「解釋權」。
當企業的人工智慧/機器學習工具對其用戶做出了重要的決定時,需要確保他們得到通知,並能得到關於為什麼做出這個決定的完整解釋。
企業的人工智慧團隊也應該能夠追蹤導致每個決策的關鍵因素,並在這過程中診斷出任何錯誤。內部面向員工的文件和外部面向客戶的文件應該解釋人工智慧系統是如何以及為什麼這樣運作的。
最近的一項研究表明,根據具有偏見的數據訓練的人工智慧系統強化了歧視模式,從醫學研究招募不足到科學家參與度降低,甚至少數族裔患者不太願意參與研究。
人們需要問自己:如果意想不到的結果發生了,它會影響誰或哪個群體?它是否平等地影響所有用戶,還是只影響特定群體?
##仔細查看歷史數據,評估是否引入了任何潛在的偏見或減輕了偏見。一個經常被忽視的因素是企業的開發團隊的多樣性,而更多樣化的團隊通常會引入更公平的過程和結果。 為了避免意外的傷害,企業需要確保來自人工智慧/機器學習開發、產品、審計和治理團隊的所有涉眾完全理解指導企業的人工智慧專案的高級原則、價值和控制計劃。獲得獨立的評估,以確認所有項目都符合這些原則和價值。以上是如何規避人工智慧的風險?的詳細內容。更多資訊請關注PHP中文網其他相關文章!