阿里云今天宣布了一个开源项目,名为Qwen-14B,该项目包括一个参数模型和一个对话模型。这个开源项目允许免费商用
本站声明:阿里云之前已经开源了一个价值70亿的参数模型 Qwen-7B,一个多月的下载量已经突破了100万次
通过阿里云给出的数据来看,Qwen-14B 在多个权威评测中超越同等规模模型,部分指标甚至接近 Llama2-70B。
据介绍,Qwen-14B 是一款高性能的开源模型,支持多种语言。它的整体训练数据超过 3 万亿 Token,具备更强的推理、认知、规划和记忆能力,并且最大支持 8k 的上下文窗口长度
相对的,Qwen-14B-Chat 则是在基座模型上经过精细 SFT 得到的对话模型,可带来更准确的内容,也更符合人类偏好,而且在内容创作的想象力和丰富度方面也有扩展。
今日起,用户可从阿里魔搭社区直接下载模型,也可通过阿里云灵积平台访问和调用 Qwen-14B 和 Qwen-14B-Chat。
阿里云 CTO 周靖人表示,阿里云将持续拥抱开源开放,推动中国大模型生态建设。阿里云笃信开源开放的力量,率先开源自研大模型,希望让大模型技术更快触达中小企业和个人开发者。
https://modelscope.cn/stud/qwen/Qwen-14B-Chat-Demo
python 3.8 及以上版本
pytorch 1.12 及以上版本,推荐 2.0 及以上版本
建议使用 CUDA 11.4 及以上(GPU 用户需考虑此选项)
注意:在PAI-DSW的环境配置下运行(可以使用单卡运行,显存最低要求为11G)
Qwen-14B-Chat 模型链接:
https://modelscope.cn/models/qwen/Qwen-14B-Chat
Qwen-14B 模型链接:
https://modelscope.cn/models/qwen/Qwen-14B
Qwen-14B-Chat-Int4 模型链接:
https://www.modelscope.cn/models/qwen/Qwen-14B-Chat-Int4
社区支持直接下载模型的 repo:
from modelscope.hub.snapshot_download import snapshot_download
<br>
model_dir = snapshot_download('qwen/Qwen-14B-Chat', 'v1.0.0')
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,本站所有文章均包含本声明。
以上是阿里云宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型,免费可商用的详细内容。更多信息请关注PHP中文网其他相关文章!