首页  >  文章  >  科技周边  >  英特尔张宇:边缘计算在整个AI生态系统中扮演重要角色

英特尔张宇:边缘计算在整个AI生态系统中扮演重要角色

王林
王林转载
2023-07-19 17:13:57748浏览

【环球网科技报道 记者 林梦雪】当前,生成式AI、大模型在世界各地都呈现出高热现象,在刚刚过去的2023世界人工智能大会(WAIC 2023)期间, 各家厂商更是掀起了“百模大战”,据组委会不完全统计,共有超30个大模型平台对外发布和亮相,六成线下展台展示了生成式AI技术的相关介绍和应用,八成参会人员讨论的内容围绕大模型展开。

WAIC 2023期间,英特尔公司高级首席AI工程师、网络与边缘事业部中国区首席技术官张宇认为,推动本轮人工智能发展最核心的要素,实际上是计算、通讯和存储技术的不断提升。在整个AI生态系统中,无论是大规模模型还是AI融合,边缘都扮演着至关重要的角色。

张宇表示,“随着行业数字化转型,人们对于敏捷连接,实时业务以及应用智能等方面的诉求,推动了边缘人工智能的发展。但是边缘人工智能目前绝大部分的应用还处于边缘推理阶段。也就是说我们要利用大量数据以及极大算力在数据中心训练一个模型,我们把训练的结果推送到前端去执行一个推理操作。这是目前绝大部分在边缘实现人工智能的使用模式。”

“这种模式不可避免会限制模型更新频率,但是我们也看到很多智能行业对模型的更新实际上是有诉求的。自动驾驶需要能够适应各种路况并适用于不同驾驶员的驾驶习惯。但是我们在车厂训练一个角色模型的时候,所使用的训练数据和在动态驾驶过程中所产生的数据之间,往往会产生一定差异。这种差异影响了模型的泛化能力,即对新路况和新驾驶行为的适应能力。我们需要在边缘不断对模型进行训练和优化以推进这个进程。”他说道。

因此,张宇提出,人工智能发展的第二个阶段应该是边缘训练阶段。“如果我们要实现边缘训练,就需要有更加自动化的手段和工具去完成从数据标注到模型的训练,以及模型部署一整套完整的开发流程。”他表示,边缘人工智能下一步的发展方向应该是自主学习。

而在实际的发展过程中,边缘人工智能也面临着诸多挑战。在张宇看来,除了边缘训练的挑战外,还有边缘设备的挑战。“由于提供的算力所能够承载的功耗往往是有限的,所以如何在有限资源的情况下去实现边缘的推理及训练,对芯片的性能、功耗比提出了更高的要求。”他还提出,边缘设备的碎片化非常明显,如何利用软件很好地实现在不同平台之间的迁移也提出了更多要求。

此外,人工智能的发展与算力息息相关,而算力的背后则是庞大的数据基础,面对海量的数据资产,如何进行数据保护也成为边缘人工智能发展热议的焦点。一旦人工智能在边缘部署,这些模型将超出服务提供商的控制范围。在这个时候我们如何去保护模型?且要在存储和运行时都能达到很好的保护效果,这些都是边缘人工智能面临的挑战。”

“英特尔是一家数据公司,我们的产品恰恰涵盖了计算、通讯和存储的各个方面。在计算方面,英特尔提供的是包括CPU、GPU、FPGA和各种人工智能加速芯片在内的多种产品,来满足用户对于算力的不同要求。比如在人工智能大模型方面,英特尔旗下的Habana推出的Gaudi2产品是整个业界唯二的在大模型训练方面表现出优异性能的产品。在在边缘推理方面,英特尔提供的OpenVINO深度学习部署工具套件,可以将开发人员在开放的人工智能框架上设计和训练好的模型快速部署到不同硬件平台执行推理操作。”英特尔张宇:边缘计算在整个AI生态系统中扮演重要角色

以上是英特尔张宇:边缘计算在整个AI生态系统中扮演重要角色的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:sohu.com。如有侵权,请联系admin@php.cn删除