在算力紧缺的背景下,如何提升大模型训练和推理的效率,并降低成本,成为业界关注的焦点。
11月23日,腾讯披露,腾讯混元大模型背后的自研机器学习框架Angel再次升级,大模型训练效率提升至主流开源框架的2.6倍,千亿级大模型训练可节省50%算力成本。升级后的Angel支持单任务万卡级别超大规模训练,进一步提升腾讯云HCC大模型专属算力集群的性能和效率。
同时,Angel还提供了从模型研发到应用落地的一站式平台,支持用户通过API接口或精调等方式快速调用腾讯混元大模型能力,加速大模型应用构建,腾讯会议、腾讯新闻、腾讯视频等超过300个腾讯产品及场景均已接入腾讯混元内测。
目前,相关能力已通过腾讯云对外开放。基于升级后的Angel机器学习框架,腾讯云TI平台可提供更优的训练和推理加速能力,并支持客户用自己的数据一站式训练精调,基于腾讯混元大模型打造专属智能应用。
随着大模型时代到来,模型参数呈指数级增长,达到万亿级别。大模型逐渐从支持单一模态和任务发展为支持多种模态下的多种任务。在这种趋势下,大模型训练所需算力巨大,远超单个芯片的处理速度,而多卡分布式训练通信损耗巨大。如何提高硬件资源利用率,成为影响国产大模型技术发展和实用性的重要前提。
为了面向大模型训练,腾讯开发了一套名为AngelPTM的机器学习训练框架,该框架针对预训练、模型精调和强化学习等全流程进行了加速和优化。AngelPTM采用了最新的FP8混合精度训练技术,结合了经过深度优化的4D并行和ZeROCache机制来优化存储,可以与多款国产化硬件兼容适配,能够以更少的资源和更快的速度来训练更大的模型
2023年4月,腾讯云发布了面向大模型的新一代HCC高性能计算集群,其性能比前代提升了3倍。除了硬件的升级外,HCC还对网络协议、通信策略、AI框架和模型编译等进行了系统级优化,大大降低了训练调优和算力成本。之前,AngelPTM已经通过HCC提供了服务,此次Angel机器学习框架的升级将进一步提升HCC大模型专属算力集群的性能,为企业加速大模型的实际应用提供了帮助
为了解决模型参数增加所带来的训练挑战和推理成本不断上升的问题,腾讯自研的大模型推理框架AngelHCF通过扩展并行能力、采用多种Attention优化策略等方式提升了性能。同时,框架还适配了多种压缩算法,以提高吞吐能力,从而实现更快的推理性能和更低的成本,支持大型模型推理服务
相较于业界主流框架,AngelHCF的推理速度提高了1.3倍。在腾讯混元大模型文生图的应用中,推理耗时从原本的10秒缩短至3至4秒。此外,AngelHCF还支持多种灵活的大模型压缩和量化策略,支持自动压缩
作为实用级大模型,腾讯混元大模型从研发之初就面向应用场景而生,在实践中解决大模型落地难点。腾讯产品及应用种类多、流量大,让模型真正“用起来”挑战很大。基于Angel,腾讯构建了大模型接入和应用开发的一站式平台,包含数据处理、精调、模型评估、一键部署以及提示词调优等服务,让大模型的“开箱即用”成为可能。
腾讯混元大模型在模型接入方面,提供千亿、百亿、十亿多个尺寸的模型,完全适应各种应用场景的需求。只需进行简单微调,就能满足业务需求,并降低模型训练和推理服务的资源成本。在问答、内容分类等常见应用场景中,具有更高的性价比
应用开发层面,腾讯内部已有超过300项业务和应用场景接入腾讯混元大模型内测,相比上个月数量翻了一倍,覆盖文本总结、摘要、创作、翻译、代码等多个领域。
2023年9月,腾讯自主研发的实用级大型模型腾讯混元正式亮相,并通过腾讯云进行开放。腾讯混元拥有超过千亿的参数规模,预训练语料库包含超过2万亿个tokens。它集合了腾讯在预训练算法、机器学习平台和底层算力资源等多个方面的自主技术积累,并在应用中持续迭代,不断优化大型模型的能力。目前,来自零售、教育、金融、医疗、传媒、交通、政务等多个行业的客户已经通过腾讯云接入了腾讯混元大型模型
以上是腾讯揭示了节省50%算力成本的最新大模型训练方法的详细内容。更多信息请关注PHP中文网其他相关文章!