5月19日消息,据外媒Techcrunch报道,在今天上午的一次线上活动中,Facebook 母公司Meta首度公开了其自研 AI 芯片的进展,可以支持其最近推出的广告设计和创作工具的生成式 AI技术。
△Meta CEO扎克伯格展示首款自研AI芯片MTIA
Meta基础设施副总裁 Alexis Bjorlin表示:“构建我们自己的 [硬件] 功能使我们能够控制堆栈的每一层,从数据中心设计到培训框架。需要这种水平的垂直整合才能大规模突破人工智能研究的界限。”
首款自研AI芯片MTIA
在过去十年左右的时间里,Meta 花费了数十亿美元来招募顶级数据科学家并构建新型人工智能,包括现在为发现引擎、审核过滤器和遍布其应用程序和服务的广告推荐器提供支持的人工智能。This company has been striving to turn its many ambitious AI research innovations into products, especially in the area of generative AI.。
自 2016 年开始,互联网头部企业一直在积极研发云端AI芯片。Google 一直在设计和部署称为 Tensor Processing Units(TPU)的自研AI芯片,用于训练生成式 AI 系统如 PaLM-2、Imagen 等;亚马逊则向 AWS 客户提供 AWS Trainium、AWS Inferentia 两款自研芯片进行应用。传闻微软也传出正与 AMD 合作开发一款名为 Athena 的 AI芯片。
此前,Meta 主要使用第三方的 CPU 和专为加速 AI 算法而设计的定制芯片的组合来运行其 AI 工作负载——CPU 在处理这类任务时的效率往往低于 GPU。为了扭转局面,Meta 在2020年开发了其第一代基于7nm工艺的自研AI芯片 MTIA(MTIA v1)。
Meta 将该AI芯片称为 Meta Training and Inference Accelerator,简称 MTIA,并将其描述为加速 AI 训练和推理工作负载的AI芯片“家族”的一部分。MTIA 是一种 ASIC,一种将不同电路组合在一块基板上的芯片,允许对其进行编程以并行执行一项或多项任务。
“为了在我们的重要工作负载中获得更高水平的效率和性能,我们需要一个与模型、软件堆栈和系统硬件协同设计的定制解决方案,以使得各种服务为我们的用户提供更好的体验。”Bjorlin解释说道。
根据介绍,MTIA v1采用7纳米工艺制造,其内部128MB内存可扩展至最高128GB。Meta表示,MTIA可以专门用于处理与 AI 推荐系统相关的工作,帮助用户找出最佳贴文内容并更快呈现在用户眼前,其计算性能和处理效率都胜过 CPU。另外,在 Meta 设计的基准测试中,MTIA处理“低复杂性” ”和“中等复杂度”的 AI 模型也比 GPU 更高效。
Meta 表示,MTIA芯片的内存和网络领域仍有一些工作要做,随着 AI 模型规模的增长,这会出现瓶颈,需要将工作负载分配到多个芯片上。最近,Meta已经收购了位于奥斯陆的英国芯片独角兽Graphcore的AI网络技术团队,以此为目的。目前,MTIA更注重Meta应用程序系列"推荐工作负载"的推理能力,而非训练能力。
Meta 强调,它将继续改进的MTIA ,在运行推荐工作负载时“大大”提高了公司在每瓦性能方面的效率——反过来允许 Meta 运行“更加增强”和“尖端”人工智能工作负载。
根据计划,Meta 将在 2025 年正式推出自研的MTIA芯片。
Meta的AI超级计算机RSC
报道称,Meta原本计划在2022 年大规模推出其自研的定制AI芯片,但最终却推迟了,转而为其超级计算机 Research SuperCluster (RSC) 订购了价值数十亿美元的 Nvidia GPU,这需要对其多个数据中心进行重大重新设计。
据介绍,RSC 于 2022 年 1 月首次亮相,与 Penguin Computing、Nvidia 和 Pure Storage 合作组装而成,已经完成了第二阶段的扩建。Meta 表示,它现在包含总共 2,000 个 Nvidia DGX A100 系统,配备 16,000 个 Nvidia A100 GPU。
虽然,目前RSC的算力已经落后于微软和谷歌的AI超级计算机。谷歌声称其专注于人工智能的超级计算机搭载了 26,000 个 Nvidia H100 GPU。Meta指出,RSC的优势在于其允许研究人员使用Meta生产系统中的实际示例来训练模型。该公司之前的AI基础设施利用的是开源和公开可用的数据集,与此不同的是现在的基础设施。
RSC AI 超级计算机正在推进多个领域的 AI 研究,包括生成式 AI,突破研究边界。”Meta 发言人称:“这真的关系到人工智能研究的生产力。我们希望为 AI 研究人员提供最先进的基础设施,使他们能够开发模型并为他们提供培训平台以推进 AI 发展。”
Meta称,在其巅峰时期,RSC 可以达到近 5 exaflops 的计算能力,这使其成为世界上最快的计算能力之一。
Meta利用RSC进行LLaMA的训练,其中RSC是指“大型语言模型Meta人工智能”的首字母缩写。Meta 表示,最大的 LLaMA 模型在 2,048 个 A100 GPU 上进行了训练,耗时 21 天。
“构建我们自己的超级计算能力使我们能够控制堆栈的每一层;从数据中心设计到培训框架,”Meta发言人补充道:“RSC 将帮助 Meta 的 AI 研究人员构建新的更好的 AI 模型,这些模型可以从数万亿个示例中学习;跨数百种不同的语言工作;一起无缝分析文本、图像和视频;开发新的增强现实工具;以及更多。”
未来,Meta或将自研的AI芯片MTIA导入RSC当中,以进一步提升其AI性能。
面向视频处理的AI芯片MSVP
除了 MTIA之外,Meta还在自研另一款被称为 Meta Scalable Video Processor(MSVP)的 AI芯片,主要面向持续成长的满足视频点播和直播流媒体的数据处理需求,Meta最终希望将大部分成熟且稳定的影音内容处理工作交由 MSVP 执行。
其实,Meta 多年前就开始构思定制服务器端视频处理芯片,并宣布在 2019 年推出用于视频转码和推理工作的 ASIC。这是其中一些努力的成果,也是对竞争优势的新推动。特别是视频直播领域。
“仅在 Facebook 上,人们就将 50% 的时间花在观看视频上,”Meta 技术主管 Harikrishna Reddy 和 Yunqing Chen 在19日上午发表的一篇博客文章中写道:“为了服务于世界各地的各种设备(移动设备、笔记本电脑、电视等),上传到 Facebook 或 Instagram 的视频被转码为多个比特流,具有不同的编码格式、分辨率和质量……MSVP是可编程和可扩展的,并且可以配置为有效地支持 VOD 所需的高质量转码以及实时流媒体所需的低延迟和更快的处理时间。”
△MSVP
Meta 表示,它的计划是最终将大部分“稳定和成熟”的视频处理工作负载卸载到 MSVP,并仅对需要特定定制和“显着”更高质量的工作负载使用软件视频编码。Meta 说,使用智能降噪和图像增强等预处理方法以及伪影去除和超分辨率等后处理方法,我们将继续使用 MSVP 提高视频质量。
“在未来,MSVP 将使我们能够支持更多 Meta 最重要的用例和需求,包括短视频——实现生成式 AI、AR/VR 和其他元宇宙内容的高效交付,”Reddy 和 Chen 说。
编辑:芯智讯-浪客剑
以上是Meta自研AI芯片进展:首款AI芯片2025年推出,还有视频AI芯片的详细内容。更多信息请关注PHP中文网其他相关文章!

11月14日消息,英伟达(Nvidia)在当地时间13日上午的“Supercomputing23”会议上正式发布了全新的H200GPU,并更新了GH200产品线其中,H200依然是建立在现有的HopperH100架构之上,但增加了更多高带宽内存(HBM3e),从而更好地处理开发和实施人工智能所需的大型数据集,使得运行大模型的综合性能相比前代H100提升了60%到90%。而更新后的GH200,也将为下一代AI超级计算机提供动力。2024年将会有超过200exaflops的AI计算能力上线。H200

6月19日消息,据中国台湾媒体报道,谷歌(Google)为了研发最新的面向服务器的AI芯片,已经找来联发科合合作,并计划交由台积电5nm制程代工,计划明年初量产。报道称,消息人士透露,这次谷歌与联发科的合作,将由联发科提供串行器及解串器(SerDes)方案,并协助整合谷歌自研的张量处理器(TPU),助力谷歌打造最新的服务器AI晶片,性能将比CPU或GPU架构更强大。业界指出,谷歌目前的多项服务都与AI有关,早在多年前就投入到了深度学习技术当中,发现运用GPU来进行AI运算成本十分昂贵,因此谷歌决

号称世界最强AI芯片英伟达H200亮相后,业内开始期待英伟达更强大的B100芯片,与此同时,今年以来最红的初创AI公司OpenAI已经开始研发更强大、更复杂的GPT-5模型。国泰君安在最新的研报中指出,性能无边的B100与GPT5预计在2024年发布,重磅升级或释放前所未有的生产力。该机构表示,看好AI进入快速发展的成长期,能见度持续至2024年。相较于前几代产品,B100和GPT-5究竟有多强大?英伟达和OpenAI已经给出了预告:B100速度可能是H100的4倍以上,而GPT-5可能会实现超

vivo已经官宣,将于2023年11月1日在深圳国际会展中心举行主题为“同心・同行”2023年开发者大会,届时将发布自研AI大模型、自研操作系统,还有OriginOS4系统。近日,知名数码博主“数码闲聊站”爆料称,vivo自研AI大模型将落地OriginOS4,类似微软Copilot的形式单独做了个从侧边栏呼出的浮窗,跟集成在语音助手上的模式不太一样,AI数据量和系统融合做得不错,全员智能化系统。从图片来看,vivo自研AI大模型将命名为“JoviCopilot”。据悉,JoviCopilot可

KL730在能效方面的进步使得解决了人工智能模型落地方面最大的瓶颈——能源成本,相较于行业及以往耐能的芯片,提高了3到4倍KL730芯片支持最先进的轻量级GPT大语言模型,如nanoGPT,并提供每秒0.35-4tera的有效计算能力AI公司耐能今日宣布发布KL730芯片,该芯片集成了车规级NPU和图像信号处理(ISP),将安全而低能耗的AI能力赋能到边缘服务器、智能家居及汽车辅助驾驶系统等各类应用场景中。总部位于圣迭戈的耐能以其开创性的神经处理单元(NPU)而闻名耐能最新款芯片KL730旨在实

11月11日消息,近日,手机晶片领域的权威@手机晶片达人在其最新微博中透露,苹果公司即将推出两款全新的M3系列芯片,进一步巩固其在移动设备芯片领域的技术实力。这两款芯片将采用先进的3纳米工艺,为用户带来更卓越的性能和能效。有关这两款芯片的详细信息,目前仍处于神秘之中。不过,根据手机晶片达人的爆料,M3系列的第四款芯片被命名为M3Ultra,并将采用先进的“UltraFusion”技术。这项技术的特点是将两块M3Max芯片巧妙拼接在一起,为设备提供更加强大的计算能力和处理速度。至于第五款M3系列芯

根据原话,可以将其重写为:(全球TMT2023年8月16日讯)AI公司耐能,总部位于圣迭戈,以其开创性的神经处理单元(NPU)而闻名,宣布发布KL730芯片。该芯片集成了车规级NPU和图像信号处理(ISP),并将安全而低能耗的AI能力赋予边缘服务器、智能家居及汽车辅助驾驶系统等各类应用场景KL730芯片在能效方面取得了巨大的突破,相较于以往的耐能芯片,其能效提升了3至4倍,比主要行业同类产品提高了150%~200%。该芯片具备每秒0.35-4tera的有效计算能力,可以支持最先进的轻量级GPT大

当全球还在为英伟达H100芯片痴迷并疯狂购买以满足持续增长的AI算力需求之时,当地时间周一,英伟达悄然推出了最新的AI芯片H200,用于AI大模型的训练,相比于其前一代产品H100,H200的性能提升了约60%到90%。H200是英伟达H100的升级版,与H100同样基于Hopper架构,主要升级包括141GB的HBM3e显存,显存带宽从H100的3.35TB/s增加到了4.8TB/s。据英伟达官网消息,H200也是公司第一款使用HBM3e内存的芯片,这种内存速度更快,容量更大,因此更适合大语言


热AI工具

Undresser.AI Undress
人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover
用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool
免费脱衣服图片

Clothoff.io
AI脱衣机

AI Hentai Generator
免费生成ai无尽的。

热门文章

热工具

禅工作室 13.0.1
功能强大的PHP集成开发环境

记事本++7.3.1
好用且免费的代码编辑器

SecLists
SecLists是最终安全测试人员的伙伴。它是一个包含各种类型列表的集合,这些列表在安全评估过程中经常使用,都在一个地方。SecLists通过方便地提供安全测试人员可能需要的所有列表,帮助提高安全测试的效率和生产力。列表类型包括用户名、密码、URL、模糊测试有效载荷、敏感数据模式、Web shell等等。测试人员只需将此存储库拉到新的测试机上,他就可以访问到所需的每种类型的列表。

ZendStudio 13.5.1 Mac
功能强大的PHP集成开发环境

EditPlus 中文破解版
体积小,语法高亮,不支持代码提示功能