首页  >  文章  >  科技周边  >  阿里云宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型,免费可商用

阿里云宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型,免费可商用

王林
王林转载
2023-09-26 20:05:012216浏览

阿里云今天宣布了一个开源项目,名为Qwen-14B,该项目包括一个参数模型和一个对话模型。这个开源项目允许免费商用

阿里云宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型,免费可商用

本站声明:阿里云之前已经开源了一个价值70亿的参数模型 Qwen-7B,一个多月的下载量已经突破了100万次

阿里云宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型,免费可商用

通过阿里云给出的数据来看,Qwen-14B 在多个权威评测中超越同等规模模型,部分指标甚至接近 Llama2-70B。

阿里云宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型,免费可商用

据介绍,Qwen-14B 是一款高性能的开源模型,支持多种语言。它的整体训练数据超过 3 万亿 Token,具备更强的推理、认知、规划和记忆能力,并且最大支持 8k 的上下文窗口长度

相对的,Qwen-14B-Chat 则是在基座模型上经过精细 SFT 得到的对话模型,可带来更准确的内容,也更符合人类偏好,而且在内容创作的想象力和丰富度方面也有扩展。

今日起,用户可从阿里魔搭社区直接下载模型,也可通过阿里云灵积平台访问和调用 Qwen-14B 和 Qwen-14B-Chat。

阿里云 CTO 周靖人表示,阿里云将持续拥抱开源开放,推动中国大模型生态建设。阿里云笃信开源开放的力量,率先开源自研大模型,希望让大模型技术更快触达中小企业和个人开发者。

模型零代码创空间体验地址:

https://modelscope.cn/stud/qwen/Qwen-14B-Chat-Demo

环境配置与安装

  • python 3.8 及以上版本

  • pytorch 1.12 及以上版本,推荐 2.0 及以上版本

  • 建议使用 CUDA 11.4 及以上(GPU 用户需考虑此选项)

使用步骤

注意:在PAI-DSW的环境配置下运行(可以使用单卡运行,显存最低要求为11G)

  • Qwen-14B-Chat 模型链接:

  • https://modelscope.cn/models/qwen/Qwen-14B-Chat

  • Qwen-14B 模型链接:

  • https://modelscope.cn/models/qwen/Qwen-14B

  • Qwen-14B-Chat-Int4 模型链接:

  • https://www.modelscope.cn/models/qwen/Qwen-14B-Chat-Int4

社区支持直接下载模型的 repo:

from modelscope.hub.snapshot_download import snapshot_download<br>model_dir = snapshot_download('qwen/Qwen-14B-Chat', 'v1.0.0')

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,本站所有文章均包含本声明。

以上是阿里云宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型,免费可商用的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:ithome.com。如有侵权,请联系admin@php.cn删除