首页 >科技周边 >人工智能 >用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

WBOY
WBOY转载
2023-09-03 08:25:091033浏览

IT之家 9 月 2 日消息,Meta 公司为了缓解当前很多计算机视觉模型对女性、有色人种存在系统性偏见问题,近日推出了名为 FACET 的全新 AI 工具,用于识别计算机视觉系统中的种族和性别偏见。

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

FACET 工具目前经过 3 万张图片、含 5 万人图像的训练,特别增强了性别和肤色方面的感知,可以用于评估计算机视觉模型在各种特征。

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

经过训练后,FACET工具能够回答复杂问题。例如,当识别到对象为男性时,它可以进一步识别出滑板运动员,以及浅色或深色皮肤

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

Meta 以 FACET 来评测该公司所开发的 DINOv2 模型与 SEERv2 模型,以及 OpenAI 的 OpenCLIP 模型,整体而言,OpenCLIP 在性别上的表现优于其它模型,而 DINOv 则在年龄与肤色上有较佳的判断力。

用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具

FACET 的开源将有助于研究人员执行类似的标竿测试,以理解自己的模型中所存在的偏见,亦可用来监控为了解决公平问题而采取的缓解措施所造成的影响。IT之家在此附上 Meta 新闻稿地址,感兴趣的用户可以深入阅读。 FACET的开源将有助于研究人员进行类似的基准测试,以了解他们模型中存在的偏见,并监测采取公平解决措施所带来的影响。IT之家在此提供Meta新闻稿的链接,有兴趣的用户可以深入阅读

以上是用于评估 AI 模型中种族和性别偏见的 Meta 开源 FACET 工具的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:sohu.com。如有侵权,请联系admin@php.cn删除