麻省理工人工智慧實驗室的研究人員發表了一篇新論文,旨在譴責在某些場景下使用選擇性回歸,因為這種技術會降低資料集中代表性不足的群體模型的整體效能。
這些代表性不足的群體往往是女性和有色人種,這種對他們的忽視導致了一些關於人工智慧種族主義和性別歧視的報道。在一個帳戶中,用於風險評估的人工智慧錯誤地將黑人囚犯標記為白人囚犯的兩倍。在另一個案例中,沒有任何背景的男性照片被認定為醫生和家庭主婦的比例高於女性。
透過選擇性迴歸,人工智慧模型可以對每個輸入做出兩個選擇:預測或棄權。只有在對決策有信心的情況下,該模型才會做出預測,在幾次測試中,透過排除無法正確評估的輸入來提高模型的性能。
然而,當輸入被刪除時,它會放大資料集中已經存在的偏差。一旦AI模型被部署到現實生活中,這將導致代表性不足的群體進一步不準確,因為它無法像在開發過程中那樣刪除或拒絕代表性不足的群體。最終希望確保以明智的方式考慮跨組的錯誤率,而不是僅僅最小化模型的一些廣泛的錯誤率。
麻省理工學院的研究人員還引入了一種新技術,旨在提高模型在每個子組中的模型性能。這種技術被稱為單調選擇性風險,一種模型沒有棄權,而是包含種族和性別等敏感屬性,而另一種則不包含。同時,兩個模型都做出決策,沒有敏感資料的模型被用作資料集中偏差的校準。
為這個特定問題提出正確的公平概念是一項挑戰。但是透過執行這個標準,單調的選擇風險,我們可以確保當減少覆蓋範圍時,模型性能實際上在所有子組中都變得更好。
當使用醫療保險資料集和犯罪資料集進行測試時,新技術能夠降低代表不足的群體的錯誤率,同時不顯著影響模型的整體表現。研究人員打算將這項技術應用到新的應用中,例如房價、學生平均學分績點和貸款利率,看看它是否可以用於其他任務。
以上是選擇性風險可以提高AI的公平性和準確性的詳細內容。更多資訊請關注PHP中文網其他相關文章!