首页  >  文章  >  科技周边  >  负责任的人工智能是技术问题还是商业问题?

负责任的人工智能是技术问题还是商业问题?

WBOY
WBOY转载
2023-04-10 08:11:021330浏览

人工智能(尤其是ChatGPT)已经在世界范围内得到应用。人工智能被误用或滥用的可能性也很大,这是一种必须严肃对待的风险。然而,人工智能也为社会和个人带来了一系列潜在的好处。

多亏了ChatGPT,人工智能成为了一个热门话题。人们和组织已经开始地考虑它的无数用例,但也有一种潜在的风险和限制的担忧。随着人工智能的快速实施,负责任的人工智能(RAI)已经走到了最前沿,许多公司都在质疑这是一项技术还是一个商业问题。

根据麻省理工学院斯隆管理学院于2022年9月发布的白皮书,世界正处于人工智能失败开始成倍增加的时期,第一批与人工智能相关的法规即将上线。该报告打开了一个新的窗口,尽管这两种发展为实施负责任的人工智能项目提供了紧迫性,但人们已经看到,在负责任的人工智能方面领先的公司主要不是由法规或其他运营问题驱动的。与其相反,他们的研究建议领导者从战略角度看待负责任的人工智能,强调他们组织的外部利益相关者、更广泛的长期目标和价值观、领导优先事项和社会责任。

这与负责任的人工智能既是技术问题也是商业问题的观点是一致的。显然,潜在的问题体现在人工智能技术内部,所以这是前沿和中心。但现实情况是,对于人工智能来说,什么是可接受的,什么是不可接受的,标准并不明确。

例如,人们都认同人工智能需要“公平”,但我们应该使用谁的“公平”定义呢?这是一个公司对企业的决定,当你进入细节时,很难做出决定。

“技术和业务问题”方法是一个重要的方法,因为大多数人只评估技术方面。从业务和技术角度评估和完全自动化负责任的人工智能有助于弥合两者之间的差距。对于受到严格监管的行业来说尤其如此。上周刚刚公布的NIST人工智能框架提供了有用的指导方针,帮助组织评估和解决他们对负责任的人工智能的需求。

什么是负责任的人工智能?

人工智能可以区分和制造偏见。人工智能模型可以根据包含固有偏见的数据进行训练,并可以使社会中现有的偏见永久化。例如,如果计算机视觉系统主要是使用白人的图像进行训练,那么它在识别其他种族的人时可能不太准确。同样,在招聘过程中使用的人工智能算法也可能存在偏见,因为它们是在过去招聘的简历数据集上进行训练的,这些数据集可能在性别或种族方面存在偏见。

负责任的人工智能是一种人工智能(AI)方法,旨在确保人工智能系统在道德和负责任的情况下使用。这种方法基于这样一种理念,即人工智能应该用于造福人类和社会,并且必须考虑到道德、法律和监管方面的考虑。负责任的人工智能涉及使用透明度、问责制、公平和安全措施,以确保负责任地使用人工智能系统。这些措施可以包括使用人工智能审计和监测,制定道德行为守则,使用数据隐私和安全措施,以及采取措施确保以符合人权的方式使用人工智能。

哪里最需要负责任的人工智能?

人工智能的早期采用者是银行/金融、保险、医疗保健和其他受到严格监管的行业,包括电信和面向消费者的重度行业(零售、酒店/旅游等)。可以按行业细分:

?银行/金融:人工智能可用于处理大量客户数据,以更好地了解客户的需求和偏好,然后用于改善客户体验,提供更量身定制的服务。人工智能还可用于识别欺诈和可疑活动,自动化流程,并提供更准确和及时的财务建议。

?保险:人工智能可用于更好地了解客户数据和行为,以提供更个性化的保险覆盖范围和定价。人工智能还可以用于自动化索赔流程和简化客户服务操作。

?医疗保健:人工智能可用于识别医疗数据中的模式,并可用于诊断疾病、预测健康结果,并提供个性化治疗计划。人工智能还可用于自动化管理和操作任务,如患者调度和保险处理。

?电信:人工智能可以通过分析客户数据和了解客户需求和偏好来提供更好的客户服务。人工智能还可以用于自动化客户服务流程,例如故障排除和计费。

?零售:人工智能可以通过分析客户数据和了解客户需求和偏好来个性化客户体验。人工智能还可以用于自动化库存管理和客户服务操作。

?酒店/旅游:人工智能可用于自动化客户服务流程,如在线预订和客户服务。人工智能还可以用来分析客户数据,并提供个性化的建议。

如何监管负责任的人工智能?

政府对人工智能的监管是政府为确保人工智能(AI)的开发和使用是安全、道德和合法而实施的一套规则和条例。不同国家的规定各不相同,但它们通常涉及为人工智能系统造成的任何伤害设定道德、安全、保障和法律责任标准。政府监管机构也可能要求开发人员接受安全和安保协议方面的培训,并确保其产品在设计时考虑到最佳实践。此外,政府可能会为公司提供激励措施,以创建对社会有益的人工智能系统,例如那些有助于应对气候变化的系统。

通过将安全法规框架纳入其负责任的人工智能计划,公司可以确保其人工智能系统满足必要的标准和法规,同时降低数据泄露和其他安全问题的风险。这是通往负责任的人工智能之旅的重要一步,因为它有助于确保组织能够以负责任和安全的方式管理其人工智能系统。此外,安全法规框架还可以作为指南,帮助组织识别和实施使用机器学习和深度学习等人工智能技术的最佳实践。总之,负责任的人工智能既是一个技术问题,也是一个商业问题。

安全法规框架可以帮助组织评估和解决他们对负责任的人工智能的需求,同时提供一套标准、指导方针和最佳实践,以帮助确保他们的人工智能系统是安全和合规的。安全法规框架的早期采用者包括严格监管的行业和那些严重面向消费者的行业。

一个平凡的新世界?

人工智能仍然是一项相对较新的技术,目前大多数用例都集中在更实际的应用上,比如预测分析、自然语言处理和机器学习。虽然“美丽新世界”的场景当然是可能的,但目前许多人工智能驱动的应用程序都是为了改进现有的系统和流程,而不是破坏它们。

负责任的人工智能既是一个技术问题,也是一个商业问题。随着技术的进步,企业必须考虑在运营中使用人工智能和其他自动化系统的道德影响。他们必须考虑这些技术将如何影响他们的客户和员工,以及他们如何负责任地使用它们来保护数据和隐私。此外,在使用人工智能和其他自动化系统时,企业必须确保遵守适用的法律法规,并意识到使用此类技术的潜在风险。

负责任人工智能的未来是光明的。随着技术的不断发展,企业开始意识到道德人工智能的重要性,并将其纳入运营。对于企业来说,负责任的人工智能正变得越来越重要,以确保他们做出的决策是道德和公平的。人工智能可以用来创造透明和可解释的产品,同时还可以考虑决策对人类和伦理的影响。此外,负责任的人工智能可以用于自动化流程,帮助企业更快、更低风险、更高准确性地做出决策。随着技术的不断进步,企业将越来越依赖负责任的人工智能来做出决策,并创造出安全、可靠、对客户和世界有益的产品。

人工智能(AI)的潜在误用或滥用带来了必须严肃对待的风险。然而,人工智能也为社会和个人带来了一系列潜在的好处,重要的是要记住,人工智能的危险程度取决于使用它的人的意图。

以上是负责任的人工智能是技术问题还是商业问题?的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:51cto.com。如有侵权,请联系admin@php.cn删除