ChatGPT等大语言模型爆火背后原因是什么?给哪些行业产业带来福音?潜在泡沫风险在哪里?5月25日至26日,在2023小蛮腰科技大会分论坛——“迈向智能时代,实现文明跃迁”AIGC专场峰会上,20余位AI领域的研究者、实践者,共同探讨AIGC应用与商业新范式、各行业领域发展新路径,以及潜在数据安全风险、伦理问题。
在26日峰会现场的新书发布仪式上,《大模型时代》作者、曾任阿里巴巴资深产品专家兼事业部副总经理、硅谷AI创业公司联合创始人兼首席运营官龙志勇接受南都采访时坦言,生成式AI要走先规范、后发展模式,应对大模型潜在泡沫风险既有技术手段,如大模型自我评估、合规算法审核等,又有人工流程,更重要的是产业要对问题的解决难度、周期有合理的预期,才能避免过度乐观带来的风险。
大模型掀起新一轮智力革命与产业重构
ChatGPT等生成式人工智能幕后真正的智能“大脑”,正是大语言模型!基于生成式预训练大模型的技术突破,带来面向个人、深入行业的多重应用,引发新一轮智力革命与产业重构,构建全新的脑机协作关系。
大模型时代已经到来!龙志勇透露,《大模型时代》对技术、应用和产业变化进行深入分析、阐述,生动形象解释ChatGPT大模型背后的原理,描绘大模型将如何驱动社会进入智能革命和脑机协作时代,并总结企业在自身业务中应用大模型的注意事项和方法论,为个人、企业应对变革提出建议。据其称,大模型在知识工作、商业企业、创意娱乐等领域已经具体应用,主要带来两种创新:渐进式创新、颠覆性创新。
在峰会现场主题演讲中,人工智能科学家刘志毅也提到,人工智能赋能经济社会发展各领域,下游各领域的产业升级对大模型需求持续走高。据测算2022年中国人工智能行业市场规模为3.7亿元,预计2027年将达15.37亿元,有望在下游制造、交通、金融、医疗等多领域不断渗透,实现大规模落地应用。
《大模型时代》在5月26日“迈向智能时代,实现文明跃迁”2023AIGC专场峰会上发布。
生成式人工智能带来信任侵蚀等风险
不过,随着大模型的广泛应用,潜在泡沫也随之涌现。三星引入ChatGPT不到20天,就被曝机密数据泄露。人们对于AI变脸、AI绘画等技术所带来的法律风险、伦理问题和数据安全问题越来越关注。
谈及“大模型时代的AI科技创新与伦理治理”时,刘志毅表示,生成式人工智能确实存在一定风险,如果在扩展规模时没有考虑、缓解这些风险,可能会减缓转型速度。训练模型持续更新以提升性能,可能会引起对敏感数据、隐私以及安全的担忧。参与生成式人工智能的开发、消费、讨论和监管的所有人都应努力管理信任侵蚀、长期的员工失业风险、偏见和歧视、数据隐私和知识产权的保护等风险。
刘志毅接受南都采访时分享自己三点看法。他说,一是AI技术会自然进入国民经济、社会系统各领域,所在风险就会扩大,因为技术本身是黑盒的,如深度神经网络,通过技术、算法的计算,没人知道它每一步怎么达到,是不透明、不可解释的,就存在风险。二是AI技术很多时候与数字世界创造有关。比如深度伪造,包括伪造声音、图像,就是把实体身份变成数字身份,数字经济越发达的国家,越需要这些技术支撑,依赖性越强,但带来的风险也越大。三是我国非常强调应用场景与生态,这些应用场景落地必然是创新的,必然会带来风险,而这些风险随着场景创新而扩大,因此会前置性做监管,比如国家网信办发布《生成式人工智能服务管理办法(征求意见稿)》、科技部发布的《关于加强科技伦理治理的意见》等,都是前置性去考量一些风险。
《大模型时代》作者、曾任阿里巴巴资深产品专家兼事业部副总经理、硅谷AI创业公司联合创始人兼首席运营官龙志勇在新书发布仪式上发言。
对大模型算法可靠性、透明度提出要求
“数据隐私确实是GPT大模型的重要问题”,龙志勇接受南都采访时表示,最近OpenAI在美国应对质询时提前做了这方面准备工作,例如在ChatGPT中提供了关闭聊天记录的个人选项,用户可以拒绝大模型使用自己的隐私数据进行训练;针对企业客户,OpenAI将提供企业私有部署的模型,避免企业担忧自家的微调训练数据被大模型共享给了竞争对手,这些措施大概率会被国内大模型所采纳。
对于如何应对大模型潜在泡沫风险,如何平衡生成式人工智能的强规范、促发展的关系,龙志勇坦言,生成式AI要走先规范、后发展的模式。大模型的服务提供者作为AI生成物的法律责任的主要承担者,要对AIGC内容的正确性、价值取向负责,其合规压力还是相当大的,这属于强规范,“在《北京市促进通用人工智能创新发展的若干措施》文件中,提到鼓励生成式AI在科研等非面向公众服务领域实现向上向善应用,在中关村核心区先行先试,进行包容审慎的监管试点,我认为就属于一种积极的、在规范和发展之间求得平衡的信号”。
他提到,监管机构的思路要求大型算法在可靠性和透明度方面要做出改进。在《大模型时代》中发出了警告,指出潜在的产业泡沫风险,其中一个关键因素是大模型的可靠性和透明度问题。Ilya,OpenAI的首席科学家认为,大型模型幻觉和信息伪造是阻碍GPT在各行业应用的主要障碍。而幻觉问题之所以难以根除,首先是因为大模型的训练目标、方法导致,其次是AI自深度学习年代就开始具备的黑箱属性,不透明,无法在模型中定位具体问题所在。考虑到大模型新能力的涌现机制也不透明、不可预测,大模型产业需要在失控中追求可控,在规范中求得发展,这是最大的挑战。
出品:南都大数据研究院
研究员:袁炯贤
以上是大模型时代来了!数安风险如何应对?小蛮腰AI峰会专家支招的详细内容。更多信息请关注PHP中文网其他相关文章!

AI增强食物准备 在新生的使用中,AI系统越来越多地用于食品制备中。 AI驱动的机器人在厨房中用于自动化食物准备任务,例如翻转汉堡,制作披萨或组装SA

介绍 了解Python功能中变量的名称空间,范围和行为对于有效编写和避免运行时错误或异常至关重要。在本文中,我们将研究各种ASP

介绍 想象一下,穿过美术馆,周围是生动的绘画和雕塑。现在,如果您可以向每一部分提出一个问题并获得有意义的答案,该怎么办?您可能会问:“您在讲什么故事?

继续使用产品节奏,本月,Mediatek发表了一系列公告,包括新的Kompanio Ultra和Dimenty 9400。这些产品填补了Mediatek业务中更传统的部分,其中包括智能手机的芯片

#1 Google推出了Agent2Agent 故事:现在是星期一早上。作为AI驱动的招聘人员,您更聪明,而不是更努力。您在手机上登录公司的仪表板。它告诉您三个关键角色已被采购,审查和计划的FO

我猜你一定是。 我们似乎都知道,心理障碍包括各种chat不休,这些chat不休,这些chat不休,混合了各种心理术语,并且常常是难以理解的或完全荒谬的。您需要做的一切才能喷出fo

根据本周发表的一项新研究,只有在2022年制造的塑料中,只有9.5%的塑料是由回收材料制成的。同时,塑料在垃圾填埋场和生态系统中继续堆积。 但是有帮助。一支恩金团队

我最近与领先的企业分析平台Alteryx首席执行官安迪·麦克米伦(Andy Macmillan)的对话强调了这一在AI革命中的关键但不足的作用。正如Macmillan所解释的那样,原始业务数据与AI-Ready Informat之间的差距


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

MinGW - 适用于 Windows 的极简 GNU
这个项目正在迁移到osdn.net/projects/mingw的过程中,你可以继续在那里关注我们。MinGW:GNU编译器集合(GCC)的本地Windows移植版本,可自由分发的导入库和用于构建本地Windows应用程序的头文件;包括对MSVC运行时的扩展,以支持C99功能。MinGW的所有软件都可以在64位Windows平台上运行。

WebStorm Mac版
好用的JavaScript开发工具

SecLists
SecLists是最终安全测试人员的伙伴。它是一个包含各种类型列表的集合,这些列表在安全评估过程中经常使用,都在一个地方。SecLists通过方便地提供安全测试人员可能需要的所有列表,帮助提高安全测试的效率和生产力。列表类型包括用户名、密码、URL、模糊测试有效载荷、敏感数据模式、Web shell等等。测试人员只需将此存储库拉到新的测试机上,他就可以访问到所需的每种类型的列表。

Dreamweaver Mac版
视觉化网页开发工具

安全考试浏览器
Safe Exam Browser是一个安全的浏览器环境,用于安全地进行在线考试。该软件将任何计算机变成一个安全的工作站。它控制对任何实用工具的访问,并防止学生使用未经授权的资源。