随着欧盟迈向实施人工智能法案,人工智能伦理道德问题(如偏见、透明度和可解释性)正变得越来越重要,该法案将有效规范人工智能和机器学习技术在所有行业的使用。人工智能专家表示,这是人工智能用户熟悉道德概念的好时机。
欧洲最新版的《人工智能法案》于去年推出,目前正在迅速通过审查过程,最早可能在 2023 年实施。虽然该法律仍在制定中,但欧盟委员会似乎已准备好大步监管人工智能。
例如,法律将对人工智能系统的使用设定新要求,并完全禁止某些用例。所谓的高风险人工智能系统,例如用于自动驾驶汽车的人工智能系统以及教育、移民和就业的决策支持系统,将要求用户对人工智能应用进行影响评估和审计。某些 AI 用例将在数据库中进行密切跟踪,而其他用例则需要外部审计员签字才能使用。
总部位于宾夕法尼亚州纽敦的软件工程公司 EPAM Systems 的数据分析咨询主管 Nick Carrel 表示,作为 MLOps 参与或数据科学咨询参与的一部分,对不可解释性和可解释性的需求很大。他说,欧盟的人工智能法案也在推动企业寻求关于道德人工智能的洞察力和答案。
“现在对所谓的 ML Ops 有很多需求,这是一门操作机器学习模型的科学。我们非常认为道德人工智能是这一过程的关键基础之一,” Carrel 说。“我们还有来自客户的更多要求……因为他们了解了即将在今年年底围绕人工智能系统生效的欧盟立法,他们希望做好准备。”
不可解释性和可解释性是独立但相关的概念。模型的可解释性是指人类能够理解和预测模型将做出何种决策的程度,而可解释性是指准确描述模型实际工作方式的能力。EPAM Systems 数据科学和机器学习部门的负责人 Andrey Derevyanka 说,你可以有一个没有另一个。
“想象一下,你正在做一些实验,也许是一些混合两种液体的化学实验。这个实验是可以解释的,因为,你看到你在这里做了什么。你拿了一个物品,加上另一个物品,我们得到了结果,”Derevyanka 表示。“但要让这个实验可以解释,你需要知道化学反应,你需要知道反应是如何产生的,是如何进行的,你需要知道这个过程的内部细节。”
Derevyanka 说,特别是深度学习模型可以解释但有不能说明具体情况。“你有一个黑盒子,它以某种方式运作,但你知道你不知道里面是什么,”他说。“但你可以解释:如果你给出这个输入,你就会得到这个输出。”
在道德 AI 方面,偏见是另一个重要主题。EPAM Systems 数据和人工智能实践主管 Umit Cakmak 表示,不可能完全消除数据中的偏见,但企业组织努力消除人工智能模型中的偏见很重要。
“这些事情必须随着时间的推移进行分析,”Cakmak 说。“这是一个过程,因为偏见已经融入历史数据。没有办法从数据中清除偏差。因此,作为一家企业,您必须设置一些特定的流程,以便您的决策随着时间的推移变得更好,这将随着时间的推移提高您的数据质量,因此随着时间的推移,您的偏见会越来越少。”
欧盟的人工智能法案将按风险对人工智能的使用进行分类
可解释性对于让利益相关者(包括内部或外部审计师,以及将声誉置于危险境地的客户和高管)相信 AI 模型不会根据有偏见的数据做出错误的决策非常重要。
Cakmak 说,文献中有许多数据偏见泄漏到自动决策系统中的例子,包括种族偏见出现在用于评估员工绩效或从简历中挑选求职者的模型中。能够展示模型如何得出结论对于展示已采取措施消除模型中的数据偏差非常重要。
Cakmak 回忆起缺乏可解释性如何导致一家医疗保健公司放弃为癌症诊断开发的人工智能系统。“人工智能在某种程度上发挥了作用,但随后该项目被取消,因为他们无法建立对算法的信任和信心,”他说。“如果你无法解释为什么会出现这种结果,那么你就无法继续治疗。”
EPAM Systems 帮助企业以可信的方式实施人工智能。该公司通常会遵循一套特定的指导方针,从如何收集数据开始,到如何准备机器学习模型,再到如何验证和解释模型。Cakmak 说,确保 AI 团队成功通过并记录这些检查或“质量门”是道德 AI 的一个重要元素。
波士顿咨询集团全球 GAMMA 首席人工智能道德官 Steven Mills 表示,规模最大、运营最完善的企业已经意识到需要负责任的人工智能。
然而,随着人工智能法案越来越接近成为法律,我们将看到世界各地更多的公司加速他们负责任的人工智能项目,以确保他们不会违反不断变化的监管环境和新的期望。
“有很多公司已经开始实施人工智能,并且意识到我们没有像我们想要的那样对所有潜在的意外后果抱有希望,我们需要尽快解决这个问题,” Mills说. “这是最重要的。人们并不觉得他们只是随意的以及他们如何应用它。”
以合乎道德的方式实施人工智能的压力来自组织的高层。 Mills说,在某些情况下,它来自外部投资者,他们不希望自己的投资风险因以不好的方式使用人工智能而受到损害。
他说:“我们看到了一种趋势,即投资者,无论是上市公司还是风险基金,都希望确保以负责任的方式构建人工智能。” “这可能并不明显。这对每个人来说可能并不明显。但在幕后,这些风险投资公司中的一些人正在考虑他们在哪里投入资金以确保这些初创公司以正确的方式做事。”
Carrel 表示,虽然目前《人工智能法案》的细节也很模糊,但该法律有可能明确人工智能的使用,这将使公司和消费者都受益。
“我的第一反应是这将是非常严格的,”Carrel 说,他在加入 EPAM Systems 之前在金融服务行业实施了机器学习模型。“多年来,我一直在试图突破金融服务决策的界限,突然间有一项立法出台,它会破坏我们所做的工作。
但他越是关注未决法律,就越喜欢他所看到的。
“我认为这也将逐渐增加公众对不同行业使用人工智能的信心,” Carrel 说。“立法规定你必须在欧盟注册高风险人工智能系统,这意味着你知道在某处将有一个非常清晰的清单,列出正在使用的每一个人工智能高风险系统。这为审计人员提供了强大的权力,这意味着顽皮的男孩和坏玩家将逐渐受到惩罚,希望随着时间的推移,我们会为那些想要将人工智能和机器学习用于更好的事业的人留下最佳实践——负责任的方式。”
以上是欧洲新人工智能法案将加强伦理道德审核的详细内容。更多信息请关注PHP中文网其他相关文章!