生成式AI是最近颇引人注目的一种AI技术,它使用非监督和半监督式算法从现有材料(如文本、音频、视频、图像和代码)中生成新的内容。这个AI分支的用途正在呈现出爆炸式的增长,企业组织正在使用生成式AI更好地服务于客户、更多地利用企业现有数据、提高运营效率,以及许多其他用途。
但就像其他新兴技术一样,生成式AI并非没有重大风险和挑战。根据Salesforce最近对高级IT领导者进行的一项调查显示,有79%的受访者认为,生成式AI技术可能存在安全风险,73%的受访者担心生成式AI可能存在偏见,59%的受访者认为生成式AI的输出内容不准确。此外,还需要考虑法律问题,特别是外部使用的生成式AI生成的内容真实准确、内容受版权保护或者来自竞争对手。
例如,ChatGPT本身会告诉我们,“我的回复是根据从大型文本数据集中学习的模式和关联性生成的,并且我没有能力验证数据集中所有引用来源的准确性或可信度。”
仅法律风险就十分广泛,根据非营利性Tech Policy Press组织称,这些风险包括合同、网络安全、数据隐私、欺诈性贸易行为、歧视、虚假信息、道德、知识产权和验证相关的风险。
事实上,你所在的组织可能已经有很多员工正在测试使用生成式AI了,并且随着这项活动从试验转向现实生活,在意外后果发生之前采取积极主动的措施是非常重要的。
谷歌公司首席决策科学家Cassie Kozyrkov表示:“如果AI生成的代码奏效的话,那么它水平很高。但这并不总是有效的,所以在将它复制粘贴到其他重要地方之前,不要忘记测试ChatGPT的输出内容。”
企业使用政策和相关培训可以帮助员工了解这项技术存在的一些风险和陷阱,并提供规则和建议以帮助他们了解如何充分利用该技术,从而不让组织陷入风险的情况下实现商业价值最大化。
考虑到这一点,以下有六个最佳实践可以用于制定企业使用生成式AI的政策。
确定你的政策范围——企业制定使用政策的第一步是考虑其范围。例如,这会涵盖所有形式的AI还是仅针对生成式AI?仅针对生成式AI可能是一种很有用的方法,因为这解决了包括ChatGPT在内的大型语言模型,而不必影响其他众多AI技术。如何为针对更广泛的领域建立AI治理政策则是另一回事,网上有数百种这样的资源。
让整个组织的所有相关利益相关者都参与进来——这可能包括人力资源、法律、销售、市场营销、业务开发、运营和IT。每个团队都可能会有不同的用途,内容如何被使用或者误用产生的后果也可能不尽相同。让IT和创新团队参与进来,说明该政策不仅仅是从风险管理角度制定的一种限制措施,而是一系列平衡的建议,旨在最大限度地提高生产效率和业务利益,同时管理业务风险。
考虑生成式AI的现有和未来使用方式——与所有利益相关者展开合作,逐条列出目前正在应用的所有内部和外部用例,以及针对未来设想的用例,其中每一项都有助于为政策制定提供信息,并确保覆盖了相关领域。例如,如果你已经看到提案团队(包括承包商)正在尝试使用生成式AI起草内容,或者产品团队正在生成创意营销内容,那么你就知道,可能会因为输出了潜在侵犯他人知识产权而产生后续知识产权方面的风险。
处于不断发展的状态——在制定企业使用政策时,重要的是要全面思考并涵盖进入系统的信息、生成式AI系统的使用方式,以及从系统中输出的信息随后是如何被使用的。关注内部和外部用例以及两者之间的一切。通过要求所有AI生成的内容都贴上标签,从而确保透明度并避免与人类生成的内容相互混淆,即使是内部使用,这项措施也可能有助于防止意外地将该内容重新用于外部使用,或者防止在未经核实的情况下根据你认为真实准确的信息采取行动。
在整个组织内广泛分享——由于政策通常很快就会被遗忘甚至无人阅读,因此围绕政策提供适当的培训和教育是非常重要的,这其中可以包括制作培训视频和主持现场会议。例如,和IT、创新、法律、营销和提案团队或者其他相关团队的代表进行现场问答,可以帮助员工了解未来的机遇和挑战。一定要列举出大量的例子来帮助让听众身临其境,比如当重大法律案件突然出现时,可以作为例子被引用。
对文档进行动态更新——和所有政策文档一样,你需要让文档保持动态更新,根据新的用途、外部市场条件和发展要求以合适的节奏对其进行更新。让所有利益相关者“签署”该政策或将其纳入由CEO签署的现有政策手册中,表明这些政策已经获得了高层的批准并且对组织很重要。你的政策应该只是你更广泛治理方法的一个组成部分,无论是针对生成式AI,还是普遍的AI技术或者技术治理。
这不是法律上建议,你的法律和人力资源部门应该在批准和传播政策方面发挥主导作用。但希望这能够给你提供一些参考意见。就像十年前的企业社交媒体政策一样,现在花时间在这方面上,未来几年将有助于你减少意外的发生和不断变化的风险。
以上是针对生成式AI制定企业使用政策的六个优秀实践的详细内容。更多信息请关注PHP中文网其他相关文章!

隐藏者的开创性研究暴露了领先的大语言模型(LLM)的关键脆弱性。 他们的发现揭示了一种普遍的旁路技术,称为“政策木偶”,能够规避几乎所有主要LLMS

对环境责任和减少废物的推动正在从根本上改变企业的运作方式。 这种转变会影响产品开发,制造过程,客户关系,合作伙伴选择以及采用新的

最近对先进AI硬件的限制突出了AI优势的地缘政治竞争不断升级,从而揭示了中国对外国半导体技术的依赖。 2024年,中国进口了价值3850亿美元的半导体

从Google的Chrome剥夺了潜在的剥离,引发了科技行业中的激烈辩论。 OpenAI收购领先的浏览器,拥有65%的全球市场份额的前景提出了有关TH的未来的重大疑问

尽管总体广告增长超过了零售媒体的增长,但仍在放缓。 这个成熟阶段提出了挑战,包括生态系统破碎,成本上升,测量问题和整合复杂性。 但是,人工智能

在一系列闪烁和惰性屏幕中,一个古老的无线电裂缝带有静态的裂纹。这堆积不稳定的电子设备构成了“电子废物土地”的核心,这是身临其境展览中的六个装置之一,&qu&qu

Google Cloud的下一个2025:关注基础架构,连通性和AI Google Cloud的下一个2025会议展示了许多进步,太多了,无法在此处详细介绍。 有关特定公告的深入分析,请参阅我的文章

本周在AI和XR中:一波AI驱动的创造力正在通过从音乐发电到电影制作的媒体和娱乐中席卷。 让我们潜入头条新闻。 AI生成的内容的增长影响:技术顾问Shelly Palme


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

Video Face Swap
使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

PhpStorm Mac 版本
最新(2018.2.1 )专业的PHP集成开发工具

Atom编辑器mac版下载
最流行的的开源编辑器

WebStorm Mac版
好用的JavaScript开发工具

SecLists
SecLists是最终安全测试人员的伙伴。它是一个包含各种类型列表的集合,这些列表在安全评估过程中经常使用,都在一个地方。SecLists通过方便地提供安全测试人员可能需要的所有列表,帮助提高安全测试的效率和生产力。列表类型包括用户名、密码、URL、模糊测试有效载荷、敏感数据模式、Web shell等等。测试人员只需将此存储库拉到新的测试机上,他就可以访问到所需的每种类型的列表。

EditPlus 中文破解版
体积小,语法高亮,不支持代码提示功能