ホームページ >テクノロジー周辺機器 >AI >Pytorch' s Torchchatチュートリアル:Pythonを使用したローカルセットアップ
Torchchat:ローカルマシンに大きな言語モデルの推論をもたらす
大規模な言語モデル(LLMS)はテクノロジーを変換していますが、個人のデバイスにそれらを展開することは、ハードウェアの制限のために困難でした。 Pytorchの新しいTorchchatフレームワークはこれに対処し、ラップトップからモバイルデバイスまで、さまざまなハードウェアプラットフォームで効率的なLLM実行を可能にします。 この記事では、PythonでTorchchatをローカルにセットアップして使用するための実用的なガイドを提供します。
FacebookのAI Research Labの(公正な)オープンソースの機械学習フレームワーク、Torchchatを支えるPytorch
ヘルスケア、財務、および法律セクターの機密データに最適であり、組織インフラストラクチャ内にデータが残るようにします。
リアルタイムのパフォーマンス:
TorchChatを使用: サポートされているモデルのリスト: モデルのダウンロード:hugging hugging hugging face cli( モデルの実行:テキストを生成: またはチャットモードを使用してください: アクセスのリクエスト:
PythonとPytorchがインストールされたマシンでLLMを実行し、端末またはREST APIサーバーを介して直接対話します。 この記事では、このセットアップに焦点を当てています
プライバシーの強化:lm_eval
代わりに、githubインターフェイスから直接ダウンロードします。
git clone git@github.com:pytorch/torchchat.git
Python 3.10がインストールされていると仮定し、仮想環境を作成します:
git clone git@github.com:pytorch/torchchat.git
python -m venv .venv
source .venv/bin/activate
pip install huggingface_hub
)をインストールし、ハグするフェイスアカウントを作成し、アクセストークンを生成し、ログイン(huggingface-cli login
)にログインします。モデルをダウンロードしてください(例:stories15M
):./install_requirements.sh
python torchchat.py --help
python torchchat.py list
llama3
精密制御(
--dtype
)。
--dtype fast
Just-in-time(jit)compilation(--compile
--quantize
結論
以上がPytorch' s Torchchatチュートリアル:Pythonを使用したローカルセットアップの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。