首页  >  文章  >  科技周边  >  如何安全可靠地推进生成式AI探索?

如何安全可靠地推进生成式AI探索?

王林
王林转载
2023-10-11 20:45:09680浏览

现如今,生成式AI的探索和实施工作已经不可避免地同安全问题交织在一起。根据近期的一份数据报告,49%的企业领导者认为安全风险已经成为首要问题,38%的企业领导者则将因不了解如何使用GPT工具而引发的人为错误/人为数据泄露列为头号挑战。

尽管这些担忧各有道理,但是早期采用者所获得的好处将远远超过这些阻碍探索的潜在后果

在这篇文章中,我们将帮助团队成员和客户明白为什么不能把安全视为事后因素,而应将其作为AI与业务相融合的前提条件,并探讨在这方面工作中的一系列最佳实践

如何安全可靠地推进生成式AI探索?

以安全策略为起点

企业已经意识到AI应用带来的新兴安全风险和紧迫性。根据之前提到的统计报告,81%的企业领导者表示他们的公司已经或正在制定围绕生成式AI建立的用户政策

然而,由于该项技术的发展速度极快、新兴应用与用例时刻都在涌现,因此政策内容也必须不断更新以应对随时出现的风险和挑战。

为了在加快探索的同时最大限度降低安全风险,我们自然有必要为测试和学习工作设置“护栏”。此外,制定相关政策时也绝不应该孤立推进,而应该充分征集企业内各个部门代表的意见,思考不同职能单位如何使用/是否可以使用生成式人工智能来应对各自面临的安全风险

总而言之,各部门对于AI技术的探索不应被粗暴禁止。如果单纯出于恐惧而在企业范围内全面封禁,那么大家也不必担心竞争对手吞噬自己的市场份额了——您本身就是在自毁长城。

以一线人员为核心

为了确保生成式AI能够安全地使用,我们首先应该为普通开发人员提供许可。例如,可以允许他们全面使用大型语言学习模型Insight GPT的私有实例。这样一方面可以帮助发现潜在的用例,同时也可以根据输出进行压力测试,以持续改进生成式AI服务

我们很快发现,一个仓库团队的成员找到了一种提高订单配送效率的方法。在这个特殊的案例中,该成员要求在SAP中编写一个脚本,用来自动处理一部分工作负载。尽管效果很好,但如果没有正确设置保护措施,这个尝试也很容易导致事故。例如,如果工作人员不小心执行了一个订单中不存在的交易,后续的自动步骤将无法中止

在促进民间探索并尽可能限制风险的过程中,我们需要采取以下措施:审查委员会应制定明确的指导方针,进行风险评估,并加强人工智能系统的透明度。同时,应进行适当的培训,教育员工如何以负责任的方式将人工智能应用到工作场景中,特别是要明确处理道德标准、偏见、人类监督和数据隐私等关键问题的方法。此外,还应开设内部论坛,鼓励团队成员在公司的创新者群组内分享自己的发现和教训

减少“幻觉”的风险

生成式AI之所以存在风险,一个重要原因就是它偶尔会产生“幻觉”。根据Insight报告,企业领导者最关心的一个共同主题,就是幻觉会如何引发错误的商业决策。然而,由幻觉导致的风险往往各不相同,有时问题不大、有时后果严重,具体影响往往因场景而异。

虽然GPT工具必然会输出某些与客观现实不符的结果,但我们很快意识到这种错误回答往往属于措辞层面的混淆。例如,在早期测试当中,我们询问Insight GPT埃迪·范·海伦曾与埃迪·范·海伦合作过哪首作品。正确答案是“Beat It”,但它的回答却是“Thriller”。可从另一角度讲,“Beat It”确实是“Thriller”专辑中的一首作品,所以它的回答也并非毫无道理。

这样做可以确保我们能够有效地管理和监督AI生成的内容,以减少幻觉问题带来的风险。同时,我们还需要加强对AI系统的培训和监控,确保其生成的内容符合相关政策和标准。只有通过这样的措施,我们才能更好地应对处理主观性较强的工作负载时可能出现的问题

当下,生成式AI行业仍处于萌芽阶段,谁能摸索出负责任且安全的应用方式,同时减少数据泄露、信息错误、偏见及其他风险所引发的潜在威胁,谁就能建立起明确的技术优势。企业需要保证自己的AI政策与行业的变化持续保持同步,在维护合规性、缓解幻觉问题的同时逐步建立起用户信任。

以上是如何安全可靠地推进生成式AI探索?的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:51cto.com。如有侵权,请联系admin@php.cn删除