首页  >  文章  >  科技周边  >  阿里云通义千问14B模型开源!性能超越Llama2等同等尺寸模型

阿里云通义千问14B模型开源!性能超越Llama2等同等尺寸模型

王林
王林转载
2023-09-25 22:25:05996浏览

2021年9月25日,阿里云发布了开源项目通义千问140亿参数模型Qwen-14B以及其对话模型Qwen-14B-Chat,并且可以免费商用。Qwen-14B在多个权威评测中表现出色,超过了同等规模的模型,甚至有些指标接近Llama2-70B。此前,阿里云还开源了70亿参数模型Qwen-7B,仅一个多月的时间下载量就突破了100万,成为开源社区的热门项目

Qwen-14B是一款支持多种语言的高性能开源模型,相比同类模型使用了更多的高质量数据,整体训练数据超过3万亿Token,使得模型具备更强大的推理、认知、规划和记忆能力。Qwen-14B最大支持8k的上下文窗口长度。阿里云通义千问14B模型开源!性能超越Llama2等同等尺寸模型

图1:Qwen-14B在十二个权威测评中全方位超越同规模SOTA大模型

Qwen-14B-Chat是在基座模型上经过精细SFT得到的对话模型。借助基座模型强大性能,Qwen-14B-Chat生成内容的准确度大幅提升,也更符合人类偏好,内容创作上的想象力和丰富度也有显著扩展。

Qwen具备出色的工具调用能力,可以帮助开发者更快地构建基于Qwen的智能体。开发者可以使用简单的指令来教导Qwen使用复杂的工具,例如使用Code Interpreter工具来执行Python代码进行复杂的数学计算、数据分析和图表绘制等。此外,Qwen还可以开发出具备多文档问答和长文写作等能力的"高级数字助理"

百亿以内参数级别的大型语言模型目前是开发者进行应用开发和迭代的主流选择。Qwen-14B进一步提高了小尺寸模型的性能上限,在MMLU、C-Eval、GSM8K、MATH、GaoKao-Bench等12个权威测评中取得了最优成绩,超越了所有测评中的SOTA(State-Of-The-Art)大型模型,也全面超越了Llama-2-13B。与此同时,Qwen-7B也进行了全新升级,核心指标最高提升了22.5%

阿里云通义千问14B模型开源!性能超越Llama2等同等尺寸模型

重写后的内容:图片2:Qwen-14B在相同尺寸模型上表现出更强的性能

用户可以直接从魔搭社区下载模型,也可以通过阿里云灵积平台访问和调用Qwen-14B和Qwen-14B-Chat。阿里云为用户提供完整的服务,包括模型训练、推理、部署和精调等方面

8月,阿里云开源通义千问70亿参数基座模型Qwen-7B,先后冲上HuggingFace、Github的trending榜单。短短一个多月,累计下载量突破100万。开源社区出现了50多个基于Qwen的模型,社区多个知名的工具和框架都集成了Qwen。

阿里云通义千问14B模型开源!性能超越Llama2等同等尺寸模型

通义千问是中国最深入、应用最广泛的大型模型。国内已经有许多应用接入通义千问,这些应用的月活跃用户已经超过亿。许多中小企业、科研机构和个人开发者都在使用通义千问开发专属的大型模型或应用产品。例如,阿里巴巴旗下的淘宝、钉钉和未来精灵,以及外部的科研机构和创业企业

浙江大学联合高等教育出版社基于Qwen-7B开发了智海-三乐教育垂直大模型,已在全国12所高校应用。该模型具备智能问答、试题生成、学习导航、教学评估等功能。模型已在阿里云灵积平台上提供服务,只需一行代码即可调用。 浙江有鹿机器人科技有限公司在路面清洁机器人中集成了Qwen-7B,使机器人能够与用户进行实时交互,并理解用户的需求。它能够分析和拆解用户的高层指令,进行逻辑分析和任务规划,从而完成清洁任务

阿里云CTO周靖人表示,阿里云将持续支持和推动开源开放,致力于推动中国大模型生态系统的建设。阿里云坚信开源开放的力量,率先开源了自家研发的大模型技术,希望能够让更多的中小企业和个人开发者更快地接触和应用大模型技术

阿里云还领导着中国最大的AI模型开源社区魔搭ModelScope的建设,团结全行业的力量,共同推动大模型技术的普及和应用的实施。在过去的两个月内,魔搭社区的模型下载量从4500万飙升到8500万,增长接近100%

重新撰写的内容如下:附:

魔搭社区模型地址:

魔搭社区模型体验是什么?

阿里云灵积平台地址:

需要重新写作的内容是:Qwen论文链接:

https://www.php.cn/link/da796dcc49ab9fc5ac26db17e02a9e33

Github:

HuggingFace(拥抱脸):

以上是阿里云通义千问14B模型开源!性能超越Llama2等同等尺寸模型的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:jiqizhixin.com。如有侵权,请联系admin@php.cn删除