首页  >  文章  >  科技周边  >  ChatGPT和生成式AI时代的五大AI风险

ChatGPT和生成式AI时代的五大AI风险

PHPz
PHPz转载
2023-04-10 14:41:041516浏览

ChatGPT和生成式AI时代的五大AI风险

多年来,我们一直在通过语音助手、社交媒体、搜索算法、手机面部识别等方式悄悄地与人工智能互动。但随着ChatGPT等生成式人工智能的出现,人工智能占据了前沿和中心位置。

突然间,我们开始发自内心地见证人工智能,对所见所闻感到惊讶。人工智能不再让人感觉像是“某一天会出现的东西”。它现在是“存在于此,并准备好改变世界”。

改变会带来风险。对于尚未制定AI风险管理计划的企业和管理团队而言,ChatGPT应该是一个令人震惊的警钟。本文将探讨广泛实施人工智能所带来的风险。

以下是企业领导者应注意的5大人工智能风险:

1、中断风险

人工智能将以前所未有的技术颠覆现有的商业模式和市场。最明显的例子就是ChatGPT本身。谁会想到Google作为无可争议的搜索冠军的地位会受到如此突然和不稳定的挑战?

似乎就在一两年前,大多数人都设想人工智能会颠覆依赖相对低技能劳动力的行业,如卡车运输和客户服务,或者在最坏的情况下,颠覆高度有条不紊的工作,比如金融交易和放射学。现在我们了解到,媒体和广告等创意产业,以及教学和财务咨询等个性化服务行业,甚至是医药研发和计算机科学等精英技能领域,都面临着风险。

根据Goldman Sachs 2023年3月的一份报告,像ChatGPT这样的生成式人工智能可能会在全球范围内淘汰多达3亿个工作岗位,其中包括美国现有工作岗位的19%。无论从事何种行业或职业,几乎可以肯定是,企业将在未来几年内面临巨大变化。与以往的技术颠覆不同,这次的赌注真的可能是“生死攸关”。

2、网络安全风险

保护组织数据、系统和人员免受黑客和其他破坏者的侵害,已经成为企业领导者面临的一个日益严重的问题。2022年,攻击次数增加了38%,平均每个组织每周攻击超过1,000次,每次数据泄露的平均成本激增至超过400万美元。

人工智能将成倍加剧这一挑战。想象一下,当像ChatGPT这样复杂的AI向员工发送电子邮件时,这些电子邮件看似来自老板,使用的信息通常只有老板才知道,甚至还使用了老板的写作风格,这样的网络钓鱼攻击将有多大。

至少自2019年开始,就有报道称在网络诈骗中使用语音克隆等深度伪造技术。随着人工智能每天都在改进和多样化,网络风险管理的问题只会越来越严重。

如果认为防火墙和其他当今的网络防御技术可以拯救,请三思。AI将帮助坏人找到防御中最薄弱的环节,然后全天候工作,直到找到突破口。

3、声誉风险

当ChatGPT首次出现在公众视野时,Google高管最初以“声誉风险”为理由,表示不会立即推出与之竞争的人工智能。但几天后就撤回了声明,并宣布推出Bard。Bing和其他生成AI领域出现的错误和尴尬,证明了Google最初的担忧是有根据的。

公众正在观望。当AI以不符合价值观的方式行事时,可能会导致公关灾难。新兴形式的人工智能已经表现得像一个种族主义者、厌恶女性的怪物,导致了错误的逮捕,并放大了员工招聘中的偏见。

有时,人工智能会破坏人员关系。根据Forrester的数据,75%的消费者对客户服务聊天机器人感到失望,30%的消费者在人工智能驱动的客户服务互动不佳后将业务转移到别处。人工智能还很年轻,容易出错。然而,尽管风险很高,但我们希望许多商业组织在部署人工智能时,会完全了解所涉及的声誉风险。

4、法律风险

联邦政府正准备应对人工智能崛起带来的社会挑战。2022年,拜登政府公布了《人工智能权利法案》蓝图,以保护隐私和公民自由。2023年,美国国家标准技术研究院发布了人工智能风险管理框架,以帮助企业董事会和其他组织领导应对人工智能风险。《2022年的算法问责法》仍然只是一项法案,旨在在广泛的自动化决策机制中建立透明度。这只是联邦立法。仅在2022年,就有不少于17个州提出了管理人工智能的立法,目标是面部识别、招聘偏见、上瘾算法和其他人工智能用例。对于跨国企业,欧盟拟议的《人工智能法案》旨在禁止或适度使用生物识别、心理操纵、剥削弱势群体以及社会信用评分。

新法规即将出台,可能会在2023年内出台。企业面临的风险不仅仅是合规性。如果使用AI的产品或服务出现问题,谁将承担责任:产品或服务提供商?人工智能开发者?数据供应商?还是企业法人?至少,这需要为AI的决策方式提供透明度,以遵守新法律中的透明度规定。

5、操作风险

人工智能风险的最后一个领域可能是最明显的,但在某些方面也是最危险的。如果员工不小心误用了ChatGPT,导致商业机密泄露,会发生什么?当AI没有按预期工作时会发生什么?过快采用人工智能的负面影响可能是巨大的。

ChatGPT是当今进人工智能最著名的例子,全世界都在测试它,且每天都在报告其缺点。但企业使用的人工智能可能无法享受这种好处。当AI告知在特定供应商、材料或产品上加倍下注时,但却做错了——如何知道会发生什么?

IBM的Watson曾为癌症患者提出不正确且危险的治疗方法。英国Tyndaris Investments在其对冲基金AI每天损失高达2000万美元后,被香港大亨李健勤起诉。还有,失控的特斯拉撞死了行人?这是企业领导者的职责——意识到这种操作风险,并加以管理。

以上是ChatGPT和生成式AI时代的五大AI风险的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:51cto.com。如有侵权,请联系admin@php.cn删除