人工智能 (AI) 具有巨大的潜力,可以通过创新来改善社会的方方面面,从传统工程系统到医疗保健,再到艺术和娱乐领域的创意过程。例如,在好莱坞,制片厂正在使用人工智能来揭示和衡量剧本中的偏见——制片人和编剧需要这些工具来创造更公平和更具包容性的媒体。
然而,人工智能的智能程度取决于它所训练的数据,而这些数据反映了现实生活中的偏见。为了避免长期存在刻板印象和排他性,技术人员正在解决现实生活和创新中的公平和包容问题。
由于技术人员希望使用 AI 来寻找以人为中心的解决方案来优化行业实践和日常生活,因此,注意我们与生俱来的偏见可能会产生意想不到的后果至关重要。
“作为人类,我们有很大的偏见,”德勤人工智能研究所全球负责人、德勤技术和人工智能伦理负责人 Ammanath说。“随着这些偏见融入系统,社会各部分很可能被抛在后面——代表性不足的少数族裔,无法使用某些工具的人——这可能会导致世界上更多的不平等。”
如果系统是用有偏见的数据训练出来的,或者研究人员没有考虑到他们自己的观点如何影响研究方向,那么出发点是好的项目——创造平等的结果或减轻过去的不平等——最终仍可能产生偏见。
Ammanath表示,到目前为止,对 AI 偏见的调整通常是对发现有偏见的算法或事后出现的代表性不足的人口统计数据做出的反应。但是,企业现在必须学习如何积极主动,尽早缓解这些问题,并为他们的人工智能工作中的失误承担责任。
在人工智能中,偏见以算法偏见的形式出现。“算法偏差是构建 AI 模型的一系列挑战,”惠普实验室首席架构师兼惠普企业 (HPE) 副总裁 Kirk Bresniker 解释说。“我们可能会遇到挑战,因为我们的算法无法处理不同的输入,或者因为我们没有收集到足够广泛的数据集来整合到我们的模型训练中。无论哪种情况,我们都没有足够的数据。”
算法偏差也可能来自不准确的处理、数据被修改或有人注入错误信号。无论有意与否,这种偏见都会导致不公平的结果,可能会赋予一个群体特权或完全排除另一个群体。
例如,Ammanath 描述了一种算法,旨在识别不同类型的鞋子,例如人字拖、凉鞋、正装鞋和运动鞋。然而,当它发布时,该算法无法识别带高跟鞋的女鞋。开发团队是一群刚毕业的大学毕业生——都是男性——他们从没想过用女鞋训练它。
“这是一个微不足道的例子,但你意识到数据集是有限的,”Ammanath 说。“现在考虑使用历史数据来诊断疾病或疾病的类似算法。如果它没有针对某些体型、某些性别或某些种族进行训练怎么办?这些影响是巨大的。”
“至关重要的是,她说,如果你没有那种多样性,你就会错过某些场景。”
简单地获取更多(和更多样化)的数据集是一项艰巨的挑战,尤其是在数据变得更加集中的情况下。数据共享带来了许多问题,其中最重要的是安全和隐私。
科罗拉多大学博尔德分校媒体研究助理教授 Nathan Schneider 表示:“目前,我们面临的情况是,个人用户的权力远低于收集和处理其数据的大型公司。”
扩展的法律和法规很可能最终会规定何时以及如何共享和使用数据。但是,创新不会等待立法者。目前,人工智能开发组织有责任成为优秀的数据管家,保护个人隐私,同时努力减少算法偏差。德勤的 Ammanath 表示,由于技术成熟得如此之快,不可能依靠法规来涵盖所有可能的情况。“我们将进入一个在遵守现有法规和自我监管之间取得平衡的时代。”
这种自我监管意味着提高构建人工智能解决方案的整个技术供应链的标准,从数据到培训再到使这些解决方案成为可能所需的基础设施。此外,企业需要为跨部门的个人创造途径,以提出对偏见的担忧。虽然不可能完全消除偏见,但企业必须定期审核其人工智能解决方案的有效性。
由于人工智能的高度情景语境性质,每家企业的自我监管看起来都不同。例如,HPE 制定了道德 AI 准则。来自整个公司的各种不同的人花了将近一年的时间共同制定公司的人工智能原则,然后与广泛的员工一起审查这些原则,以确保它们可以被遵循并且它们对企业文化有意义。
HPE 的 Bresniker 说:“我们希望提高对这些问题的一般理解,然后收集最佳实践。这是每个人的工作——在这个领域有足够的认知。”
人工智能技术已经成熟,从研究发展到实际应用和价值创造,遍及所有行业。人工智能在社会上的日益普及意味着企业现在有道德责任提供强大的、包容的和可访问的解决方案。这种责任促使组织(有时是第一次)检查他们拉入流程的数据。 Bresniker说:“我们希望人们能建立起这种远见,对输入的数据有可衡量的信心。”“他们有能力阻止持续的系统性不平等,为更美好的未来创造公平的结果。”
以上是用更好的人工智能建设更美好的社会的详细内容。更多信息请关注PHP中文网其他相关文章!