ホームページ  >  記事  >  テクノロジー周辺機器  >  最小限の計算リソースとメモリ リソースで実行できる小型 Llama 大規模モデル

最小限の計算リソースとメモリ リソースで実行できる小型 Llama 大規模モデル

PHPz
PHPz転載
2024-03-04 14:30:04822ブラウズ

背景の紹介

現在の情報爆発の時代において、言語モデルのトレーニングはますます複雑かつ困難になっています。効率的な言語モデルをトレーニングするには、多くのコンピューティング リソースと時間が必要ですが、これは多くの人にとって現実的ではありません。同時に、特にエッジデバイス上で、限られたメモリとコンピューティングリソースの下で大規模な言語モデルをどのように適用するかという課題にも直面しています。

今日は、GitHub オープン ソース プロジェクト jzhang38/TinyLlama をお勧めしたいと思います。このプロジェクトには、GitHub 上で 4.3,000 個以上のスターが付いています。このプロジェクトを一言で紹介すると、次のようになります。 TinyLlama プロジェクトは、3 兆のトークンで 11 億の Llama モデルを事前トレーニングするオープンな取り組みです。」

只需少量计算和内存资源即可运行的小型 Llama 大模型

プロジェクトの紹介

TinyLlama の目標は、3 兆のトークンで 1.10 億の Llama モデルを事前トレーニングすることです。適切に最適化すれば、16 個の A100-40G GPU を使用して、わずか 90 日でこれを達成できます。このプロジェクトは、Llama 2 とまったく同じアーキテクチャとトークナイザーを使用しています。つまり、TinyLlama は、多くの Llama ベースのオープンソース プロジェクトに簡単に埋め込んで使用できます。さらに、TinyLlama は非常にコンパクトで、パラメーターは 1.1B のみです。このコンパクトさにより、限られたコンピューティングとメモリのフットプリントを必要とする多くのアプリケーション シナリオに適しています。

只需少量计算和内存资源即可运行的小型 Llama 大模型

只需少量计算和内存资源即可运行的小型 Llama 大模型

#使用方法

モデルを直接ダウンロードして使用することも、またはハグフェイスを通じてデモを使用してください。

只需少量计算和内存资源即可运行的小型 Llama 大模型

#自分でトレーニングしたい場合は、以下のトレーニングの詳細を参照してください。

只需少量计算和内存资源即可运行的小型 Llama 大模型プロジェクト プロモーション

TinyLlama は、いくつかの重要な問題を積極的に解決し、オープンソースの進歩を進めているエキサイティングなオープンソース プロジェクトです。コミュニティで広く注目を集めています。

只需少量计算和内存资源即可运行的小型 Llama 大模型

次は、プロジェクトのスター傾向グラフ (プロジェクトのアクティビティ レベルを表します):

只需少量计算和内存资源即可运行的小型 Llama 大模型

プロジェクトの詳細については、以下のリンクをご覧ください。

オープンソース プロジェクトのアドレス: https://github.com/jzhang38/TinyLlama

オープンソース プロジェクトの作成者: jzhang38

プロジェクト構築に携わるメンバーは次のとおりです:

只需少量计算和内存资源即可运行的小型 Llama 大模型

以上が最小限の計算リソースとメモリ リソースで実行できる小型 Llama 大規模モデルの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。