ホームページ >テクノロジー周辺機器 >AI >LMQLの紹介:SQLと大規模な言語モデルの間のブリッジ
人工知能モデルと大規模な言語モデル(LLMS)の台頭は強力なツールを提供しますが、それらとの対話は面倒です。 これは、LMQLが介入する場所です。
EthZürichのSRI Labによって開発されたLMQLは、開発者とLLMの間の橋渡しとして機能します。 SQLの構造化されたクエリパワーを言語モデルの世界にもたらし、相互作用を合理化し、効率を向上させます。 このチュートリアルカバー:
lmqlとは?
なぜLMQL?
を使用するのかを使用するのか
最新のLLMは概念的に促すことができますが、潜在能力を最大化し、新しいモデルに適応するには、内部の仕組みとベンダー固有のツールを深く理解する必要があります。 特定の単語やフレーズへの出力を制限するなどのタスクは、トークン化により複雑になる可能性があります。 さらに、LLMを使用することは、ローカルでもAPI経由でも、サイズのために高価です。lmqlはこれらの問題を軽減します。事前定義された動作と検索制約を活用することにより、LLMコールを削減します。 また、ユーザーとモデルまたは特殊なインターフェイス間の反復通信を伴うことが多いプロンプトテクニックを簡素化します。 LMQLの制約機能は、生産環境にとって重要であり、予測可能で処理可能な出力を確保しています。 たとえば、センチメント分析では、LMQLは、より冗長ではなく、「ポジティブ」、「ネガティブ」、または「ニュートラル」などの一貫した出力を保証します。 人間の読み取り可能な制約は、モデルトークンで直接作業する必要性を置き換えます。
lmqlインストールと環境のセットアップ
Pytorch> = 1.11:
を使用したGPUサポートの場合pip install lmql仮想環境を使用することをお勧めします。
LMQLプログラムを実行する3つの方法が存在します:
pip install lmql[hf]プレイグラウンド:ブラウザベースのIDE(node.jsが必要)を起動します。アクセス
lmql playground
localファイルを実行します。lmql run
を使用して、.lmql
またはlmql
。
LMQL Syntaxを理解lmql.run
@lmql.query
lmql serve-model
クエリ:
[varname]
lmqlはさまざまなモデル(Openai、llama.cpp、Huggingface Transformers)をサポートしています。 モデルは{varname}
を使用してロードされ、外部的またはlmql.model(...)
lmqlの制限とコミュニティサポートfrom
LMQLは、LLMとの相互作用に対する強力でSQLに触発されたアプローチを提供します。 Pythonの統合と制約機能により、さまざまなアプリケーションにとって貴重なツールになります。 さらに学習するには、Llamaindex、ChatGpt Alternatives、Pytorch、Langchain、およびCohere APIでのLLMトレーニングのリソースを探索します。
以上がLMQLの紹介:SQLと大規模な言語モデルの間のブリッジの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。