Alibaba Cloud は本日、パラメトリック モデルと会話モデルを含む Qwen-14B と呼ばれるオープンソース プロジェクトを発表しました。このオープンソース プロジェクトでは、無料で商用利用が許可されています
#このサイトでは、次のように宣言されています: Alibaba Cloud は、以前に 70 億相当のパラメータ モデル Qwen-7B をオープンソース化しました。月間ダウンロード量が 100 万回を超えました
Alibaba Cloud が提供するデータに基づいて、Qwen-14B は複数の権威ある機関で最高のランクにランクされています。同スケールのモデルを超え、一部のインジケーターは Llama2-70B にさえ近づいています。
レポートによると、Qwen-14B は複数の言語をサポートする高性能のオープンソース モデルです。全体のトレーニング データは 3 兆トークンを超え、より強力な推論、認知、計画、記憶能力を備え、最大 8k
のコンテキスト ウィンドウ長をサポートしています。対照的に、Qwen-14B-Chat は、洗練された手法によって得られた対話モデルです。ベースモデルの SFT は、より正確なコンテンツを提供し、人間の好みに沿ったものにすることができ、コンテンツ作成の想像力と豊かさを拡張します。
本日より、ユーザーは Alibaba Moda コミュニティからモデルを直接ダウンロードしたり、Alibaba Cloud Lingji プラットフォームを通じて Qwen-14B および Qwen-14B-Chat にアクセスして通話したりできるようになります。
Alibaba Cloud CTO Zhou Jingren 氏は、Alibaba Cloud は引き続きオープンソースとオープン性を採用し、中国の大規模モデルエコシステムの構築を推進すると述べました。 Alibaba Cloud は、オープンソースの力を強く信じており、オープンソースの自社開発大規模モデルを先導しており、大規模モデルのテクノロジーを中小企業や個人の開発者により早く提供したいと考えています。
Model Zero コード作成スペースのエクスペリエンス アドレス:
https://modelscope.cn/stud/qwen/Qwen-14B-Chat-Demo
環境の構成とインストール
#python 3.8 以降 pytorch 1.12 以降、2.0 以降を推奨 CUDA 11.4 以降の使用を推奨 (GPU ユーザーはこのオプションを検討する必要があります) 使用手順
注: PAI-DSW の環境構成で実行します (シングル カード操作を使用します。ビデオ メモリの最小要件は 11G です)
Qwen-14B-Chat モデル リンク: https:/ /modelscope.cn/models /qwen/Qwen-14B-Chat
- #https://www.modelscope.cn/models/qwen/Qwen-14B-Chat-Int4
- コミュニティは、モデルのリポジトリの直接ダウンロードをサポートしています:
from modelscope.hub.snapshot_download import snapshot_download
model_dir = snapshot_download('qwen/Qwen-14B-Chat', 'v1.0.0')
<br>広告文: 記事に含まれる外部ジャンプ リンク (ハイパーリンク、QR コード、パスワードなどを含むがこれらに限定されない) は、より多くの情報を伝え、選択時間を節約するために使用されます。このサイトのすべての記事にはこの記述が含まれています。
以上がAlibaba Cloudは、Tongyi Qianwenの140億パラメータモデルQwen-14Bとその対話モデルをオープンソース化し、商用利用は無料になると発表した。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。