ホームページ >バックエンド開発 >Python チュートリアル >事前トレーニングされた重みを使用して LLM をローカルで実行するためのオプションは何ですか?
利用可能なウェイト リポジトリはありますが、インターネットに接続されていないクラスターがあります。これに対して LLM 推論を実行する必要があります。
これまでに見つけた唯一のオプションは、transformers
モジュールと langchain
モジュールを組み合わせて使用することですが、モデルのハイパーパラメーターを調整したくありません。 ollama
ソフトウェアを見つけましたが、Python ライブラリ以外はクラスターに何もインストールできません。そこで、当然のことながら、LLM 推論を実行するためのオプションは何だろうと疑問に思いました。まだいくつか疑問があります。
ollama-python
パッケージだけをインストールすることはできますか?それとも推論するには両方が必要ですか? ollamama
をインストールできた場合、事前トレーニングされた重みをモデルに提供するにはどうすればよいですか?役立つ場合は、(場合によっては複数の) .bin
ファイル 実際には、ollama
をインストールする必要はありません。代わりに、mistral model のように、llm を直接
locally
またはファルコンの場合
ラップトップには 16g メモリの nvidia 4090 がインストールされており、上記の 2 つのモデルをローカルで実行することができます。
以上が事前トレーニングされた重みを使用して LLM をローカルで実行するためのオプションは何ですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。