首頁 >科技週邊 >人工智慧 >用於評估 AI 模型中種族和性別偏見的 Meta 開源 FACET 工具

用於評估 AI 模型中種族和性別偏見的 Meta 開源 FACET 工具

WBOY
WBOY轉載
2023-09-03 08:25:091045瀏覽

IT之家9 月2 日消息,Meta 公司為了緩解當前許多電腦視覺模型對女性、有色人種存在系統性偏見問題,近日推出了名為FACET 的全新AI 工具,用於識別電腦視覺系統中的種族和性別偏見。

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

FACET 工具目前經過 3 萬張圖片、含 5 萬人圖像的訓練,特別增強了性別和膚色方面的感知,可以用於評估電腦視覺模型在各種特徵。

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

經過訓練後,FACET工具能夠回答複雜問題。例如,當識別到對象為男性時,它可以進一步識別滑板運動員,以及淺色或深色皮膚

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

Meta 以FACET 來評測該公司所開發的DINOv2 模型與SEERv2 模型,以及OpenAI 的OpenCLIP 模型,整體而言,OpenCLIP 在性別上的表現優於其它模型,而DINOv 則在年齡與膚色上有較佳的判斷力。

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

FACET 的開源將有助於研究人員執行類似的標竿測試,以理解自己的模型中所存在的偏見,也可用於監控為了解決公平問題而採取的緩解措施所造成的影響。 IT之家在此附上 Meta 新聞稿地址,有興趣的用戶可以深入閱讀。 FACET的開源將有助於研究人員進行類似的基準測試,以了解他們模型中存在的偏見,並監控採取公平解決措施所帶來的影響。 IT之家在此提供Meta新聞稿的鏈接,有興趣的用戶可以深入閱讀

以上是用於評估 AI 模型中種族和性別偏見的 Meta 開源 FACET 工具的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:sohu.com。如有侵權,請聯絡admin@php.cn刪除