9月4日訊息,Meta日前發布了一款名為FACET的開源資料集,旨在幫助研究人員審查電腦視覺模型中的偏差。
在一篇部落格文章中,Meta詳細說明,使用目前的基準測試方法很難評估人工智慧的公平性。根據Meta的說法,FACET將透過提供一個大型評估資料集來簡化這項任務,研究人員可以使用該資料集來審查幾種不同類型的電腦視覺模型。
Meta研究人員在部落格文章中詳細介紹說:「該資料集由32,000張包含50,000人的圖像組成,由專家人類註釋者標記人口統計屬性,如感知的性別表現,感知的年齡組,額外的身體屬性,如感知的膚色、髮型,以及與人相關的類別,如籃球運動員,醫生等。FACET還包含SA-1B中69,000個口罩的人、頭髮和服裝標籤。」
研究人員可以透過讓電腦視覺模型在FACET中處理照片來檢查公平性問題。從那裡,他們可以進行分析,以確定模型結果的準確性是否因照片而異。這種準確性的變化可能是人工智慧有偏見的跡象。
研究人員可以使用該資料集來檢測用於分類優化的神經網路中的偏差,這是將相似圖像分組在一起的任務。此外,它使評估目標檢測模型變得更容易。這種模型的設計目的是自動偵測照片中感興趣的項目。
FACET還可以審計執行實例分割和視覺接地的AI應用程序,這是兩個專門的物件偵測任務。實例分割是在照片中突出顯示感興趣的項目的過程,例如在它們周圍畫一個框。反過來,視覺基礎模型是一種神經網絡,它可以掃描照片,尋找使用者用自然語言描述的物件。
Meta的研究人員表示:「雖然FACET僅用於研究評估目的,不能用於訓練,但我們發布資料集和資料集瀏覽器的目的是使FACET可以成為電腦視覺模型的標準公平性評估基準。」
以上是Meta發布FACET資料集,用於評估AI公平性的詳細內容。更多資訊請關注PHP中文網其他相關文章!