阿里雲今天宣布了一個開源項目,名為Qwen-14B,該項目包括一個參數模型和一個對話模型。這個開源專案允許免費商用
本站宣告:阿里雲之前已經開源了一個價值70億的參數模型Qwen-7B,一個多月的下載量已經突破了100萬次
#透過阿里雲給出的數據來看,Qwen-14B 在多個權威評測中超越同等規模模型,部分指標甚至接近Llama2-70B。
據介紹,Qwen-14B 是一款高效能的開源模型,支援多種語言。它的整體訓練資料超過3 兆Token,具備更強的推理、認知、規劃和記憶能力,並且最大支持8k 的上下文窗口長度
#相對的,Qwen-14B-Chat 則是在基座模型上經過精細SFT 得到的對話模型,可帶來更準確的內容,也更符合人類偏好,而且在內容創作的想像力和豐富度方面也有擴展。
今日起,用戶可從阿里魔搭社群直接下載模型,也可透過阿里雲靈積平台存取並呼叫 Qwen-14B 和 Qwen-14B-Chat。
阿里雲 CTO 週靖人表示,阿里雲將持續擁抱開源開放,推動中國大模型生態建設。阿里雲篤信開源開放的力量,率先開源自研大模型,希望讓大模型技術更快觸達中小企業和個人開發者。
https://modelscope.cn/stud/qwen/Qwen-14B-Chat-Demo
python 3.8 以上版本
pytorch 1.12 以上版本,建議2.0 以上版本
#建議使用CUDA 11.4 以上(GPU 使用者需考慮此選項)
注意:在PAI-DSW的環境配置下運作(可使用單卡運行,顯存最低要求為11G)
Qwen-14B-Chat 模型連結:
https://modelscope.cn/models /qwen/Qwen-14B-Chat
Qwen-14B 模型連結:
https://modelscope. cn/models/qwen/Qwen-14B
#Qwen-14B-Chat-Int4 模型連結:
https ://www.modelscope.cn/models/qwen/Qwen-14B-Chat-Int4
社群支援直接下載模型的repo:
from modelscope.hub.snapshot_download import snapshot_download
<br>
#model_dir = snapshot_download('qwen/Qwen-14B-Chat', 'v1.0.0')
廣告聲明:文內含有的對外跳轉連結(包括不限於超連結、二維碼、口令等形式),用於傳遞更多訊息,節省甄選時間,結果僅供參考,本站所有文章均包含本聲明。
以上是阿里雲宣布開源通義千問 140 億參數模型 Qwen-14B 及其對話模型,免費可商用的詳細內容。更多資訊請關注PHP中文網其他相關文章!