Langchain:言語モデルとエージェントを構築、実験、分析するための強力なPythonライブラリ
コアポイント:
- Langchainは、言語モデルとエージェントの作成、実験、分析を簡素化するPythonライブラリであり、自然言語処理のための幅広い機能を提供します。
- テキストを理解して生成できる多機能エージェントの作成を可能にし、さまざまな言語関連のタスクを実行するために特定の動作とデータソースを構成できます。
- Langchainは、大規模な言語モデル(LLM)、チャットモデル、テキスト埋め込みモデルの3つのタイプのモデルを提供します。それぞれが言語処理タスクに一意の機能を提供します。 また、大きなテキストを管理しやすいブロックにセグメント化し、複数のLLM関数をチェーンでリンクして複雑なタスクを実行し、OpenaI以外のさまざまなLLMおよびAIサービスと統合するなどの機能も提供します。
環境設定: この記事を学習するには、新しいフォルダーを作成し、PIPを使用してLangchainとOpenaiをインストールしてください:
pip3 install langchain openaiエージェント:
Langchainでは、エージェントはテキストを理解して生成できるエンティティです。これらのエージェントは、特定の動作とデータソースを構成でき、さまざまな言語関連のタスクを実行するようにトレーニングされているため、さまざまなアプリケーション向けの多機能ツールになります。
langchainエージェントを作成:
代理店は、「ツール」を使用して必要なデータを収集し、適切な応答を作成するように構成できます。以下の例をご覧ください。 SERP API(インターネット検索API)を使用して、質問や入力に関連する情報を検索し、回答します。また、LLM-Mathツールを使用して数学操作を実行します。たとえば、単位を変換したり、2つの値間でパーセンテージの変更を見つけたりします。 ご覧のとおり、LLMのすべての基本的なインポートと初期化を完了した後、LLM = OpenAI(offer = "GPT-3.5-TURBO"、温度= 0))、コードはツール= load_tools(["serpapi" 、 "llm-math"]、llm = llm)エージェントが動作するために必要なツールをロードします。次に、intialize_agent関数を使用してエージェントを作成し、指定されたツールを提供し、zero_shot_react_descriptionの説明を提供します。つまり、以前の問題を覚えていません。
エージェンシーテスト例1:from langchain.agents import load_tools from langchain.agents import initialize_agent from langchain.agents import AgentType from langchain.llms import OpenAI import os os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY" os.environ["SERPAPI_API_KEY"] = "YOUR_SERP_API_KEY" # 获取你的Serp API密钥:https://serpapi.com/ OpenAI.api_key = "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" llm = OpenAI(model="gpt-3.5-turbo", temperature=0) tools = load_tools(["serpapi", "llm-math"], llm=llm) agent = initialize_agent(tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True) agent.run("How much energy did wind turbines produce worldwide in 2022?")
次の入力でこのエージェントをテストしましょう
ご覧のとおり、次のロジックを使用します。
- SERPインターネット検索APIを使用して、「風力タービンエネルギー生産Worldwide 2022」を検索 分析の最良の結果
- 関連する数字を取得します
- LLM-Mathツールを使用して906 GWをジュールに変換します。
- エージェンシーテスト例2:
Langchainエージェントは、インターネットの検索に限定されません。ほぼすべてのデータソース(独自の)をLangchainエージェントに接続し、データについて質問することができます。 CSVデータセットでトレーニングされたエージェントを作成してみましょう。
KaggleでShivam BansalからこのNetflix映画とテレビ番組データセットをダウンロードして、ディレクトリに移動します。このコードを新しいPythonファイルに追加します:このコードは、create_csv_agent関数を呼び出し、netflix_titles.csvデータセットを使用します。次の図は、テストを示しています。
pip3 install langchain openai
上記のように、その論理は、キャスト列の「クリスチャンベール」のすべての出来事を探すことです。
このようなPandasデータフレームエージェントを作成することもできます:
実行すると、以下に示すように結果が表示されます。
from langchain.agents import load_tools from langchain.agents import initialize_agent from langchain.agents import AgentType from langchain.llms import OpenAI import os os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY" os.environ["SERPAPI_API_KEY"] = "YOUR_SERP_API_KEY" # 获取你的Serp API密钥:https://serpapi.com/ OpenAI.api_key = "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" llm = OpenAI(model="gpt-3.5-turbo", temperature=0) tools = load_tools(["serpapi", "llm-math"], llm=llm) agent = initialize_agent(tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True) agent.run("How much energy did wind turbines produce worldwide in 2022?")
これらはほんの一例です。 Langchainを使用して、ほぼすべてのAPIまたはデータセットを使用できます。
モデル:
Langchainには、大規模な言語モデル(LLM)、チャットモデル、テキスト埋め込みモデルの3種類のモデルがあります。いくつかの例を使用して、各タイプのモデルを探索しましょう。
大規模な言語モデル:
Langchainは、Pythonで大規模な言語モデルを使用して、テキスト入力に基づいてテキスト出力を生成する方法を提供します。チャットモデルほど複雑ではなく、単純な入出力言語タスクに最適です。 Openaiを使用した例は次のとおりです
上記のように、GPT-3.5-ターボモデルを使用して、提供された入力の出力を生成します(「Matt NikonorovのRAP名を思いつく」)。この例では、LLMをより創造的にするために、温度を0.9に設定します。 「Mc Megamatt」を思いついた。 9/10マークを付けました。
チャットモデル:<code>"How much energy did wind turbines produce worldwide in 2022?"</code>LLMモデルにラップ名を作成するのは楽しいですが、より複雑な答えや会話が必要な場合は、チャットモデルを使用してスキルを向上させる必要があります。技術的には、チャットモデルは大規模な言語モデルとどのように違いますか? Langchainドキュメントの言葉では:
チャットモデルは、大規模な言語モデルのバリアントです。チャットモデルはバックグラウンドで大きな言語モデルを使用していますが、わずかに異なるインターフェイスを使用します。 「テキスト入力、テキスト出力」APIを使用するのではなく、「チャットメッセージ」を入力と出力のインターフェイスとして使用します。
これは、単純なPythonチャットモデルスクリプトです:
pip3 install langchain openai上記のように、コードは最初にシステムメスを送信し、チャットボットに友好的で非公式なものを指示し、その後、ヒューマンセージを送信し、ジョコビッチがフェデラーよりも優れていると私たちに納得させるようにチャットボットに指示します。
このチャットボットモデルを実行すると、以下に示す結果が表示されます。
埋め込み:
埋め込みは、テキストのブロック内の単語と数字をベクトルに変換する方法を提供し、他の単語や数字に関連付けられます。これは抽象的に聞こえるかもしれないので、例を見てみましょう:
from langchain.agents import load_tools from langchain.agents import initialize_agent from langchain.agents import AgentType from langchain.llms import OpenAI import os os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY" os.environ["SERPAPI_API_KEY"] = "YOUR_SERP_API_KEY" # 获取你的Serp API密钥:https://serpapi.com/ OpenAI.api_key = "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" llm = OpenAI(model="gpt-3.5-turbo", temperature=0) tools = load_tools(["serpapi", "llm-math"], llm=llm) agent = initialize_agent(tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True) agent.run("How much energy did wind turbines produce worldwide in 2022?")これは、浮動小数点数のリストを返します:[0.022762885317206383、-0.0127639898915797472、0.00481598172368168、-0.0094353992916202545これが埋め込みのように見えるものです。
埋め込まれたモデルの使用ケース:
データまたは特定のテキストサンプルに関連する質問に答えるためにチャットボットまたはLLMをトレーニングしたい場合は、埋め込みを使用する必要があります。 3つの情報を含む「テキスト」列を備えたシンプルなCSVファイル(embs.csv)を作成しましょう。これは、埋め込みを使用して「これまでで最も背の高い人間だった」という質問を得るスクリプトです。
<code>"How much energy did wind turbines produce worldwide in 2022?"</code>このコードを実行すると、「ロバートワドローはこれまでで最も背の高い人間でした」という出力が表示されます。コードは、各情報の埋め込みを取得し、「これまでで最も背の高い人間だったのは誰ですか?」という質問に最も関連する埋め込みを見つけることにより、正解を見つけます。埋め込みパワー!
from langchain.llms import OpenAI from langchain.chat_models import ChatOpenAI from langchain.agents.agent_types import AgentType from langchain.agents import create_csv_agent import os os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY" agent = create_csv_agent( OpenAI(temperature=0), "netflix_titles.csv", verbose=True, agent_type=AgentType.ZERO_SHOT_REACT_DESCRIPTION, ) agent.run("In how many movies was Christian Bale casted")チャンク:
langchainモデルは、同時に大きなテキストを処理することができず、それらを使用して応答を生成することはできません。これは、ブロックとテキストセグメンテーションが入るところです。テキストデータをブロックに分割する2つの簡単な方法を見てから、Langchainに供給します。
文字によるセグメントブロック:
ブロックの突然の中断を避けるために、新しいラインまたはダブルニューラインの各発生時にテキストを分割することにより、テキストを段落ごとに分割できます。
再帰セグメンテーションブロック:from langchain.agents import create_pandas_dataframe_agent from langchain.chat_models import ChatOpenAI from langchain.agents.agent_types import AgentType from langchain.llms import OpenAI import pandas as pd import os os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY" df = pd.read_csv("netflix_titles.csv") agent = create_pandas_dataframe_agent(OpenAI(temperature=0), df, verbose=True) agent.run("In what year were the most comedy movies released?")特定の長さの文字でテキストを厳密に分割したい場合は、recursiveCharacterTextSplitterを使用できます。
ブロックサイズとオーバーラップ:
上記の例を見ると、ブロックサイズと重複パラメーターが何を意味するのか、パフォーマンスにどのように影響するかを正確に知ることができます。これは、2つの方法で説明できます
- ブロックサイズは、各ブロックの文字の数を決定します。ブロックサイズが大きいほど、ブロック内のデータが多いほど、Langchainを処理して出力を生成するのに時間がかかります。
- ブロックオーバーラップは、ブロック間で情報を共有して、コンテキストを共有するコンテンツです。ブロックのオーバーラップが高いほど、ブロックが冗長になります。ブロックのオーバーラップが低くなるほど、ブロック間で共有されるコンテキストが少なくなります。通常、目的のブロックオーバーラップは、テキストタイプとユースケースによって異なるが、ブロックサイズの10%から20%です。
チェーン:
章は、基本的に複数のLLM関数がリンクされており、単純なLLM入力&GTを介して実現できないより複雑なタスクを実行します。クールな例を見てみましょう:
pip3 install langchain openai
このコードは、プロンプトに2つの変数を入力し、創造的な答えを開発します(温度= 0.9)。この例では、数学についてのホラー映画の良いタイトルを思い付くように頼みます。このコードを実行した後の出力は「計算呪い」ですが、これは実際にはチェーンの完全な機能を示していません。
より実用的な例を見てみましょう:
from langchain.agents import load_tools from langchain.agents import initialize_agent from langchain.agents import AgentType from langchain.llms import OpenAI import os os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY" os.environ["SERPAPI_API_KEY"] = "YOUR_SERP_API_KEY" # 获取你的Serp API密钥:https://serpapi.com/ OpenAI.api_key = "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" llm = OpenAI(model="gpt-3.5-turbo", temperature=0) tools = load_tools(["serpapi", "llm-math"], llm=llm) agent = initialize_agent(tools, llm, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True) agent.run("How much energy did wind turbines produce worldwide in 2022?")
このコードは混乱しているように見えるかもしれないので、段階的に説明しましょう。
このコードは、NAS(ヒップホップアーティスト)の短い伝記を読み取り、テキストから次の値を抽出し、JSONオブジェクトとしてフォーマットします。
- アーティストの名前
- アーティストの音楽ジャンル
- アーティストのファーストアルバム
- アーティストのファーストアルバムのリリース年
create_structed_output_chain関数にJSONパターンを提供することにより、チェーンをJSON形式に出力します。
<code>"How much energy did wind turbines produce worldwide in 2022?"</code>Openaiを超えて:
私はLangchainのさまざまな機能の例としてOpenaiモデルを使用していますが、Openaiモデルに限定されません。他の多くのLLMおよびAIサービスでLangchainを使用できます。 (これはLangchainの統合LLMの完全なリストです。)
たとえば、ラングチェーンと一緒にcoを使用できます。これはLangchain Cohere Integrationのドキュメントですが、実用的な例を提供するために、PIP3インストールCohereを使用してCohereをインストールした後、LangchainとCohereを使用してシンプルなQ&Aコードを書くことができます。
上記のコードでは、次の出力が生成されます
from langchain.llms import OpenAI from langchain.chat_models import ChatOpenAI from langchain.agents.agent_types import AgentType from langchain.agents import create_csv_agent import os os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_API_KEY" agent = create_csv_agent( OpenAI(temperature=0), "netflix_titles.csv", verbose=True, agent_type=AgentType.ZERO_SHOT_REACT_DESCRIPTION, ) agent.run("In how many movies was Christian Bale casted")
結論:
from langchain.agents import create_pandas_dataframe_agent from langchain.chat_models import ChatOpenAI from langchain.agents.agent_types import AgentType from langchain.llms import OpenAI import pandas as pd import os os.environ["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY" df = pd.read_csv("netflix_titles.csv") agent = create_pandas_dataframe_agent(OpenAI(temperature=0), df, verbose=True) agent.run("In what year were the most comedy movies released?")このガイドでは、Langchainのさまざまな側面と機能を見てきました。この知識を習得したら、Langchainの機能を使用して、研究者、開発者、愛好家であろうと、NLP作業を実行できます。
この記事には、すべての画像とnas.txtファイルを含むGitHubにリポジトリを見つけることができます。
PythonでLangchainを使用して、幸せなコーディングと実験をお祈りします!
以上がPythonのLangchainの完全なガイドの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

Pythonは学習と使用が簡単ですが、Cはより強力ですが複雑です。 1。Python構文は簡潔で初心者に適しています。動的なタイピングと自動メモリ管理により、使いやすくなりますが、ランタイムエラーを引き起こす可能性があります。 2.Cは、高性能アプリケーションに適した低レベルの制御と高度な機能を提供しますが、学習しきい値が高く、手動メモリとタイプの安全管理が必要です。

PythonとCは、メモリ管理と制御に大きな違いがあります。 1。Pythonは、参照カウントとガベージコレクションに基づいて自動メモリ管理を使用し、プログラマーの作業を簡素化します。 2.Cには、メモリの手動管理が必要であり、より多くの制御を提供しますが、複雑さとエラーのリスクが増加します。どの言語を選択するかは、プロジェクトの要件とチームテクノロジースタックに基づいている必要があります。

科学コンピューティングにおけるPythonのアプリケーションには、データ分析、機械学習、数値シミュレーション、視覚化が含まれます。 1.numpyは、効率的な多次元配列と数学的関数を提供します。 2。ScipyはNumpy機能を拡張し、最適化と線形代数ツールを提供します。 3. Pandasは、データ処理と分析に使用されます。 4.matplotlibは、さまざまなグラフと視覚的な結果を生成するために使用されます。

PythonまたはCを選択するかどうかは、プロジェクトの要件に依存するかどうかは次のとおりです。1)Pythonは、簡潔な構文とリッチライブラリのため、迅速な発展、データサイエンス、スクリプトに適しています。 2)Cは、コンピレーションと手動メモリ管理のため、システムプログラミングやゲーム開発など、高性能および基礎となる制御を必要とするシナリオに適しています。

Pythonは、データサイエンスと機械学習で広く使用されており、主にそのシンプルさと強力なライブラリエコシステムに依存しています。 1)Pandasはデータ処理と分析に使用され、2)Numpyが効率的な数値計算を提供し、3)SCIKIT-LEARNは機械学習モデルの構築と最適化に使用されます。これらのライブラリは、Pythonをデータサイエンスと機械学習に理想的なツールにします。

Pythonを1日2時間学ぶだけで十分ですか?それはあなたの目標と学習方法に依存します。 1)明確な学習計画を策定し、2)適切な学習リソースと方法を選択します。3)実践的な実践とレビューとレビューと統合を練習および統合し、統合すると、この期間中にPythonの基本的な知識と高度な機能を徐々に習得できます。

Web開発におけるPythonの主要なアプリケーションには、DjangoおよびFlaskフレームワークの使用、API開発、データ分析と視覚化、機械学習とAI、およびパフォーマンスの最適化が含まれます。 1。DjangoandFlask Framework:Djangoは、複雑な用途の迅速な発展に適しており、Flaskは小規模または高度にカスタマイズされたプロジェクトに適しています。 2。API開発:フラスコまたはdjangorestFrameworkを使用して、Restfulapiを構築します。 3。データ分析と視覚化:Pythonを使用してデータを処理し、Webインターフェイスを介して表示します。 4。機械学習とAI:Pythonは、インテリジェントWebアプリケーションを構築するために使用されます。 5。パフォーマンスの最適化:非同期プログラミング、キャッシュ、コードを通じて最適化

Pythonは開発効率でCよりも優れていますが、Cは実行パフォーマンスが高くなっています。 1。Pythonの簡潔な構文とリッチライブラリは、開発効率を向上させます。 2.Cのコンピレーションタイプの特性とハードウェア制御により、実行パフォーマンスが向上します。選択を行うときは、プロジェクトのニーズに基づいて開発速度と実行効率を比較検討する必要があります。


ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

SecLists
SecLists は、セキュリティ テスターの究極の相棒です。これは、セキュリティ評価中に頻繁に使用されるさまざまな種類のリストを 1 か所にまとめたものです。 SecLists は、セキュリティ テスターが必要とする可能性のあるすべてのリストを便利に提供することで、セキュリティ テストをより効率的かつ生産的にするのに役立ちます。リストの種類には、ユーザー名、パスワード、URL、ファジング ペイロード、機密データ パターン、Web シェルなどが含まれます。テスターはこのリポジトリを新しいテスト マシンにプルするだけで、必要なあらゆる種類のリストにアクセスできるようになります。

WebStorm Mac版
便利なJavaScript開発ツール

ZendStudio 13.5.1 Mac
強力な PHP 統合開発環境

Safe Exam Browser
Safe Exam Browser は、オンライン試験を安全に受験するための安全なブラウザ環境です。このソフトウェアは、あらゆるコンピュータを安全なワークステーションに変えます。あらゆるユーティリティへのアクセスを制御し、学生が無許可のリソースを使用するのを防ぎます。

MinGW - Minimalist GNU for Windows
このプロジェクトは osdn.net/projects/mingw に移行中です。引き続きそこでフォローしていただけます。 MinGW: GNU Compiler Collection (GCC) のネイティブ Windows ポートであり、ネイティブ Windows アプリケーションを構築するための自由に配布可能なインポート ライブラリとヘッダー ファイルであり、C99 機能をサポートする MSVC ランタイムの拡張機能が含まれています。すべての MinGW ソフトウェアは 64 ビット Windows プラットフォームで実行できます。
