新一代 HCC 高性能计算集群,采用最新一代星星海自研服务器,搭载英伟达 H800 Tensor Core GPU。
腾讯官方称,该集群基于自研网络、存储架构,带来 3.2T 超高互联带宽、TB 级吞吐能力和千万级 IOPS。实测结果显示,新一代集群算力性能较前代提升 3 倍。
去年 10 月,腾讯完成首个万亿参数的 AI 大模型 —— 混元 NLP 大模型训练。在同等数据集下,将训练时间由 50 天缩短到 11 天。如果基于新一代集群,训练时间将进一步缩短至 4 天。
计算层面,服务器单机性能是集群算力的基础,腾讯云新一代集群的单 GPU 卡在不同精度下,支持输出最高 1979 TFlops 的算力。
针对大模型场景,星星海自研服务器采用 6U 超高密度设计,相较行业可支持的上架密度提高 30%;利用并行计算理念,通过 CPU 和 GPU 节点的一体化设计,将单点算力性能提升至更高。
网络层面,计算节点间,存在着海量的数据交互需求。随着集群规模扩大,通信性能会直接影响训练效率,需要实现网络和计算节点的最大协同。
腾讯自研的星脉高性能计算网络,号称具备业界最高的 3.2T RDMA 通信带宽。实测结果显示,搭载同等数量的 GPU,3.2T 星脉网络相较 1.6T 网络,集群整体算力提升 20%。
同时,腾讯自研的高性能集合通信库 TCCL,融入定制设计的解决方案。相对业界开源集合通信库,为大模型训练优化 40% 负载性能,消除多个网络原因导致的训练中断问题。
存储层面,大模型训练中,大量计算节点会同时读取一批数据集,需要尽可能缩短数据加载时长,避免计算节点产生等待。
腾讯云自研的存储架构,具备 TB 级吞吐能力和千万级 IOPS,支持不同场景下对存储的需求。COS+GooseFS 对象存储方案和 CFS Turbo 高性能文件存储方案,充分满足大模型场景下高性能、大吞吐和海量存储要求。
此外,新一代集群集成了腾讯云自研的 TACO 训练加速引擎,对网络协议、通信策略、AI 框架、模型编译进行大量系统级优化,大幅节约训练调优和算力成本。
腾讯混元大模型背后的训练框架 AngelPTM,也已通过腾讯云 TACO 提供服务,帮助企业加速大模型落地。
通过腾讯云 TI 平台的大模型能力和工具箱,企业可结合产业场景数据进行精调训练,提升生产效率、快速创建和部署 AI 应用。
依托分布式云原生的治理能力,腾讯云智算平台提供 16 EFLOPS 的浮点算力。
以上是腾讯发布新一代超强算力集群:面向大模型训练,性能提升 3 倍的详细内容。更多信息请关注PHP中文网其他相关文章!