首页  >  文章  >  科技周边  >  李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

王林
王林转载
2023-04-12 10:28:07928浏览

当你仰望星空时,你在想些什么?

有执着的发问,就会有不曾想象的回音。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架shen

从方寸之间到寰宇之外,创造新宇宙的人,相信永远看不到天花板。

坚定的人,不会因为到达而停下,他们用创造的脚步丈量未知。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

百度CREATE 2022大会,为我们展示了人类设计师和AIGC共同创意制作的绘画。

而就像这些绘画所描述的场景,百度,也不曾停下创新的脚步。

在大会开始,李彦宏就提出了一个令人深思的观点:第四次科技革命的标志,就是深度学习算法。与深度学习相关的重大创新,会像汽车、互联网一样,对我们的社会产生重大的影响。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架


真正的实践中,没有导航地图,只有指南针。而百度,也是摸准大致方向后,基于实践一步步迭代,才跑出了有价值的创新。

在大会上,李彦宏展示了这样一幅画。这幅画是他以「危机和希望」为关键词,在百度AI作画平台一格上生成的。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

这幅画,很好地代表了人工智能面临的现状——经历起起落落,但充满希望。

是的,李彦宏依然坚持去年的观点——创造者们将迎来属于人工智能的黄金十年。

AIGC元年,来了

2022,AIGC全面爆发。

DALL·E2让文本生成李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架火爆一整年,随后的Stable Diffussion、Midjourney,更是启发了无数人的艺术灵感,甚至让不少画手感到震惊。

而DALL·E2和谷歌发布的Imagen的模型,也吸引了许多AI学者参与研究。

ChatGPT虽然到了年末才压轴出场,但「强化学习」赋予它的魔力,让它在全民狂欢中再次掀起AIGC的风暴。

其实,在2022年初,百度研究院早已预测到了AIGC在这一年的火爆。

超大规模预训练模型呈现知识增强、跨模态统一建模、多学习方式共同演进的趋势,并逐渐实用化。

例如AIGC (AI generated content,人工智能创造内容),借助大模型的跨模态综合技术能力,可以激发创意,提升内容多样性,降低制作成本,将会实现大规模应用。

而且,这已经不是百度研究院第一次做出神预测了。2020年,它预测的NLP模型在GPT-3上得到应验,而在2021年,它押中的数字人全面大爆。

而这次,百度对于AIGC领域的趋势,可谓是胸有成竹。

三个天才创作者,一键圆你导演梦

在Create 2022大会上,百度几乎将AIGC深入应用到了每一个环节。歌曲、场景、演讲脑图的创作,这些环节中,全都有AI的参与。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架‍‍‍

而李彦宏以「危机和希望」为主题生成的绘画,背后就是文心知识增强跨模态大模型一格,它就是接下来要出场的三位天才创作者的其中一位。

这次Create大会上,百度技术委员会主席吴华为我们介绍了三位能力超群的天才创作者。

它们分别是天才编剧——文心ERNIE3.0Zeus,天才插画师——文心ERNIE-ViLG 2.0,剪辑和动画大师——VIMER-TCIR。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

有了这三位天才创作者,再配上自己设计的虚拟人演员,你也可以当上导演,拍出自己的影视大作了!

文心ERNIE 3.0 Zeus语言大模型,陪你聊到天荒地老!

作为ERNIE 3.0系列模型的最新升级,ERNIE 3.0 Zeus除了对无标注数据和知识图谱的学习之外,还通过持续学习对百余种不同形式的任务数据实现了全面掌握。

在对通用知识和专门知识「双管齐下」后,模型的泛化能力显著提升,不管是多语言理解,还是生成任务,都能轻松搞定,名副其实的「通才」了属于是。

无论是自主创作、自由回答,还是命题对话、情感分析,100多个层次化Prompt,ERNIE 3.0 Zeus都能顺利应对。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

文心ERNIE-ViLG 2.0图像生成大模型,天才画师了解一下?

如果说文心ERNIE 3.0 Zeus是语言大师,ERNIE-ViLG 2.0就是作画大师。它能根据一句话或者一段描述文本,生成一幅精美的画作。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

中文提示,想要什么画,直接开口说就行,只有你想不到的,没有ta画不出来的,看看这艘青花瓷战舰,像不像一尊精美的艺术品?就是不知道真的打起来,会不会被一炮干碎......

而要达成这个目标,离不开模型本身背后知识增强的扩散模型。

一句话或几句话的提示中,哪些是核心要素,需要在画作中突出展现,哪些是修饰要素,作用就是锦上添花,还不能喧宾夺主,这里边就有学问了。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

为了尽可能实现精准作画,在学习过程中,ERNIE ViLG 2.0引入了语言、视觉等多源知识,引导模型更加关注文本和图像中的核心语义元素,实现精准的细粒度语义控制。

此外,ERNIE ViLG 2.0还可以针对不同阶段,选择不同网络(比如降噪)建模的框架,有效解决了不同阶段对模型能力要求不一致的问题,减少了降噪任务的互相干扰,提升了图像生成的质量。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

无论是写实风、中国风、还是国潮、国画风,ERNIE-ViLG 2.0都能根据简短的中文提示生成切题、风格各异、且生动逼真的图像。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

举个例子,比如下面这段艳丽飘逸的「天宫盛宴」:

基于ERNIE-ViLG 2.0的文心·一格,交出了可以说是面面俱到的作业,整体画风色调明艳,不失古代情调。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

现在,我们只需要在百度「文心·一格」平台上输入几个关键词,也能分分钟得到风格独特的画作。

除了语言和图像外,在视频内容生成与编辑上,也是文心大模型大展身手的地方。

在视觉内容生成方面,视频生成大模型可以根据用户提供的一段描述文本,或者一幅图像,自动地生成高清、流畅的视频。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

在视觉编辑方面,VIMER-TCIR多任务大模型,则可以利用对超分辨率、去噪、去模糊、去压缩等多任务的联合预训练,同时实现对多种不同情况的修复和编辑。

目前,VIMER-TCIR已经在老电影修复等场景实现落地,而且大幅提升了运行效率,每天单机就可修复视频28.5万帧,解决了绝大部分老电影画面的修复问题。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

AIGC的浪潮已经到来,在未来,可以预见的是,AI作画、AI创作视频等等,很快就会变得像手机拍照一样简单。

随着技术的不断突破,AIGC将很有可能颠覆现有内容生产模式,实现以十分之一的成本,以百倍千倍的生产速度,创造出有独特价值和独立视角的内容。

研发资金拉满:10年投入超1000亿

为了让大模型达到如此酷炫的效果,百度在研发方面,可谓是毫不吝啬。

十年间累计投入了超过1000亿元,其中核心研发投入占核心收入比例连续8个季度超过了20%。

据统计,百度在2020年的研发投入强度为18.22%,位列民营企业500强第一。2021年为20.03%,位列民营企业500强第二。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

顺便一提的是,如此「豪横」的投入,也让百度在人工智能的底层技术方面,取得了领先优势。

毕竟,芯片卡脖子要紧,基础软件卡脖子也一样要紧。

早在2016年,百度就开始研发被称为「人工智能操作系统」的深度学习框架——飞桨。

目前,已经凝聚了535万开发者,创建了67万个模型,构建起一个繁荣的深度学习生态。

基于飞桨的大模型也可以有效集成自然语言处理、计算机视觉等多模态能力,并联合多种行业务场景进行调优;而开发者也能像搭积木一样构建AI应用,大大降低AI的应用门槛。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

李彦宏:人工智能的黄金十年

文章开头我们已经提到,李彦宏认为,与深度学习相关的重大创新,包括自动驾驶、水电能等领域的智能调度系统等,会产生重大社会影响。

创新本身是从何而来呢?在李彦宏看来,创新,是由反馈驱动的。

百度在经营发展中,就有很多「反馈驱动创新」的实践经验。比如,百度昆仑芯片之所以在AI芯片中拥有领先的性能,正是因为它已经为百度的搜索服务优化了十年。

百度的搜索服务,每天响应几十亿次真实的用户使用需求,每天进行1万亿次深度语义推理与匹配,能够提供最真实、最及时的反馈,从而倒逼大模型、深度学习框架和芯片的优化。

现在,百度是全球为数不多的、进行全栈布局的人工智能公司(芯片层、框架层、模型层和应用层)。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

从高端芯片昆仑,到飞桨深度学习框架,再到文心预训练大模型,各个层面都有关键自研技术,每一层之间都有很多反馈,通过不断获得反馈,实现端到端优化。

每一层的技术架构,都是越往下越通用,越往上越专用。

而人工智能越专用,就越能深入产业,赋能实体经济发展。

去年的Create大会上,李彦宏曾预言:「随着技术应用门槛不断降低,创造者们将迎来属于人工智能的黄金10年。」如今,他依旧这样认为。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

2020年,李彦宏刚刚创业时,就面临着互联网泡沫破裂,全世界蒸发8万亿市值,随后,互联网又进入了黄金十年,而人工智能,也会经历同样的起起落落。

而百度,将一如既往为社会、为产业培养AI人才,投入更多资源,与各位开发者们一道,为中国AI的发展尽最大的努力。

彩蛋

Create大会最后,虚拟人乐队成员们再次登场。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

主唱/吉他:希加加,鼓手:度晓晓,贝斯:叶悠悠,键盘:林开开

希加加表示,自己的画能在大会开场被展示,实在是太开心了!

而林开开过了把当制作人的瘾,他开心自夸道,自己还挺有编曲天赋的~

叶悠悠说,自己的设计居然长在大家的审美点上,这让她相当满意。那么,哪个环节的设计是她做的呢?

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

度晓晓猜对了:是「知一」和「千流」环节。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

而度晓晓表示,自己早已写好了发布会的传播稿。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

在四位成员的共同头脑风暴中,稿件的标题火热出炉——《震惊!这是一场人和机器一场办的大会》。

李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架

以上是李彦宏10年花了1000多亿!500万开发者撑起中国最大深度学习框架的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:51cto.com。如有侵权,请联系admin@php.cn删除