在8月16日举办的Wave Summit 2023深度学习开发者大会上,百度首席技术官、深度学习技术及应用国家工程研究中心主任王海峰说,大语言模型具备理解、生成、逻辑、记忆四大核心基础能力,为通用人工智能带来曙光。
在王海峰看来,人工智能的典型能力,如创作、编程、解题、规划等,都在不同程度上依赖于理解、生成、逻辑、记忆四大核心基础能力。以解题为例,从读懂题目,到解答题目,到最后写出答案,人工智能无非组合运用了理解、记忆、逻辑、生成四大能力。
如何获得人工智能的四大核心基础能力?首先是从数万亿数据、数千亿知识中融合学习,开发出预训练大模型,在此基础上又通过精调、反馈实现强化学习,最后让大模型获得知识增强、检索增强、对话增强。深度学习技术,正是通向通用人工智能的必由之路。
在深度学习框架技术的探索中,百度推出开源开放的飞桨深度学习平台。飞桨深度学习平台+文心大模型,互相促进,互相推动,构成了百度人工智能战略的基座。
据王海峰透露,经过多年的发展,百度飞桨生态已汇聚800万开发者,服务22万家企事业单位,基于飞桨共创建了80万个模型。
在Wave Summit大会上,百度正式为飞桨开发者社区AI Studio引入中文名“星河社区”。王海峰说,百度愿与开发者一起,在飞桨深度学习平台+文心大模型的加持下,共建星河社区,共赴通用人工智能的星辰大海。
人工智能时代,IT技术栈发生根本性改变,由芯片-操作系统-应用三层架构,转变为芯片-框架-模型-应用四层架构。其中,深度学习框架堪称人工智能时代的操作系统,向下接入各类芯片、云计算平台,向上承接各种 AI 业务模型、行业应用。
在国家“十四五”规划中,深度学习框架被列入“新一代人工智能”的范畴,成为重点支持的前沿技术。
2010年,百度宣布All in AI,全栈布局人工智能。在上千亿美元的研发投入之后,百度在人工智能领域渐次取得突破:在芯片层,有昆仑芯;在框架层,有飞桨深度学习平台;在模型层,有文心大模型;在应用层有智能搜索、自动驾驶。
2016年开源的飞桨深度学习平台,是百度在人工智能框架层技术的重大突破,已与国外两大深度学习框架TensorFlow、PyTorch鼎足而三,成为国内人工智能开发者的首选平台之一。
在Wave Summit大会现场,百度AI技术生态总经理马艳军正式发布飞桨开源框架v2.5版,飞桨的基础架构全面升级,微分功能更完善,性能优化分通用。与此同时,飞桨科学计算工具组件赛桨PaddleScience v1.0正式发布,飞桨螺旋桨PaddleHelix发布HelixDock蛋白-化合物构象亲和力预测大模型。
在打通飞桨深度学习平台、文心大模型之后,百度正在努力打造飞桨+文心的生态,软硬件适配、星河社区建设成为发展的重点。
在软硬件适配方面,由中国电子技术标准化研究院牵头,百度、曙光、飞腾、浪潮一起联合起草了国家标准《人工智能深度学习框架多硬件平台适配技术规范》。基于这一国家标准,百度飞桨、文心大模型与英伟达、中科曙光、昆仑芯、寒武纪、华为、天数智芯、壁仞科技、高通、英特尔、联发科、摩尔线程、安谋科技等12家硬件伙伴开展了适配,覆盖云和端侧多种硬件类型。
在社区方面,AI Studio(星河社区)已是中国最大的AI社区,汇聚了609万个开发项目。随着大模型技术的进步,大模型开发者也在向星河社区快速聚集。在Wave Summit大会上,百度集团副总裁、深度学习技术及应用国家工程研究中心副主任吴甜宣布了星河社区的最新升级,正式推出星河大模型社区。据介绍,星河大模型社区已积累了超过300个大模型创意应用。
在大会上,吴甜又宣布文心大模型星河共创计划,百度提供生态和产业资源,与广大开发者共同推动人工智能应用创新。
3月16日,百度正式发布知识增强型大模型文心一言。不到半年时间,加速进化迭代的文心一言已推出3.5版本。
文心一言的快速进步,得益于飞桨产业级深度学习开源开放平台和文心大模型的互相促进。据吴甜介绍,在效率方面,通过飞桨端到端自适应混合并行训练技术以及压缩、推理、服务部署协同优化,文心大模型训练速度达到原来的3倍,推理速度达到30多倍。
在Wave Summit大会上,吴甜重磅发布了文心一言的五个原生插件:百度搜索、览卷文档(基于文档的交互)、E言易图(数据洞察图表生成)、说图解画(基于图片的交互)、一镜流影(文字转视频)。文心一言支持一次同时使用三个插件,不但扩展了大模型的能力边界,也更能适应场景需要。
在插件的帮助下,文言一言展示了秒秒钟出广告片、几句话搞定代码的黑科技。
百度首席技术官王海峰说,未来百度将与开发者共建插件生态,共享技术创新成果。技术+生态两手抓,飞桨+文心的应用落地,正在跑出加速度。
文:Bugle-X / 数据猿
以上是走向通用人工智能,百度飞桨+文心打造国内最大AI社区的详细内容。更多信息请关注PHP中文网其他相关文章!