首頁  >  文章  >  科技週邊  >  阿里雲宣布開源通義千問 140 億參數模型 Qwen-14B 及其對話模型,免費可商用

阿里雲宣布開源通義千問 140 億參數模型 Qwen-14B 及其對話模型,免費可商用

王林
王林轉載
2023-09-26 20:05:012228瀏覽

阿里雲今天宣布了一個開源項目,名為Qwen-14B,該項目包括一個參數模型和一個對話模型。這個開源專案允許免費商用

阿里云宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型,免费可商用

本站宣告:阿里雲之前已經開源了一個價值70億的參數模型Qwen-7B,一個多月的下載量已經突破了100萬次

阿里云宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型,免费可商用

#透過阿里雲給出的數據來看,Qwen-14B 在多個權威評測中超越同等規模模型,部分指標甚至接近Llama2-70B。

阿里云宣布开源通义千问 140 亿参数模型 Qwen-14B 及其对话模型,免费可商用

據介紹,Qwen-14B 是一款高效能的開源模型,支援多種語言。它的整體訓練資料超過3 兆Token,具備更強的推理、認知、規劃和記憶能力,並且最大支持8k 的上下文窗口長度

#相對的,Qwen-14B-Chat 則是在基座模型上經過精細SFT 得到的對話模型,可帶來更準確的內容,也更符合人類偏好,而且在內容創作的想像力和豐富度方面也有擴展。

今日起,用戶可從阿里魔搭社群直接下載模型,也可透過阿里雲靈積平台存取並呼叫 Qwen-14B 和 Qwen-14B-Chat。

阿里雲 CTO 週靖人表示,阿里雲將持續擁抱開源開放,推動中國大模型生態建設。阿里雲篤信開源開放的力量,率先開源自研大模型,希望讓大模型技術更快觸達中小企業和個人開發者。

模型零程式碼創空間體驗網址:

https://modelscope.cn/stud/qwen/Qwen-14B-Chat-Demo

環境設定與安裝

  • python 3.8 以上版本

  • pytorch 1.12 以上版本,建議2.0 以上版本

  • #建議使用CUDA 11.4 以上(GPU 使用者需考慮此選項)

使用步驟

注意:在PAI-DSW的環境配置下運作(可使用單卡運行,顯存最低要求為11G)

  • Qwen-14B-Chat 模型連結:

  • https://modelscope.cn/models /qwen/Qwen-14B-Chat

  • Qwen-14B 模型連結:

  • https://modelscope. cn/models/qwen/Qwen-14B

  • #Qwen-14B-Chat-Int4 模型連結:

  • https ://www.modelscope.cn/models/qwen/Qwen-14B-Chat-Int4

社群支援直接下載模型的repo:

from modelscope.hub.snapshot_download import snapshot_download<br>#model_dir = snapshot_download('qwen/Qwen-14B-Chat', 'v1.0.0')

廣告聲明:文內含有的對外跳轉連結(包括不限於超連結、二維碼、口令等形式),用於傳遞更多訊息,節省甄選時間,結果僅供參考,本站所有文章均包含本聲明。

以上是阿里雲宣布開源通義千問 140 億參數模型 Qwen-14B 及其對話模型,免費可商用的詳細內容。更多資訊請關注PHP中文網其他相關文章!

陳述:
本文轉載於:ithome.com。如有侵權,請聯絡admin@php.cn刪除