Qwenは、最新のファミリーの一部であるQWEN3の一部として8つの新しいモデルをリリースし、有望な機能を紹介しました。フラッグシップモデルであるQWEN3-235B-A22Bは、標準ベンチマークで、DeepSeek-R1、OpenaiのO1、O3-Mini、Grok 3、Gemini 2.5-Proなど、他のほとんどのモデルを上回りました。一方、小さなQWEN3-30B-A3Bは、新しいモデルとしてアクティブ化されたパラメーターの約10倍のQWQ-32Bを上回りました。このような高度な機能により、これらのモデルは幅広いアプリケーションに最適な選択肢であることが証明されています。この記事では、すべてのQWEN3モデルの機能を調査し、それらを使用してRAGシステムとAIエージェントを構築する方法を学びます。
目次
- QWEN3とは何ですか?
- QWEN3の主要な機能
- APIを介してQWEN3モデルにアクセスする方法
- QWEN3を使用してAIソリューションを強化します
- 前提条件
- QWEN3を使用してAIエージェントを構築します
- QWEN3を使用してRAGシステムを構築します
- QWEN3のアプリケーション
- 結論
- よくある質問
QWEN3とは何ですか?
QWEN3は、QWENファミリーの最新の大規模な言語モデル(LLMS)シリーズであり、8つの異なるモデルで構成されています。これらには、QWEN3-235B-A22B、QWEN3-30B-A3B、QWEN3-32B、QWEN3-14B、QWEN3-8B、QWEN3-4B、QWEN3-1.7B、およびQWEN3-0.6Bが含まれます。これらすべてのモデルはApache 2.0ライセンスの下でリリースされ、個人、開発者、および企業が自由に利用できるようにします。
これらのモデルのうち6つは密集していますが、推論とトレーニングの時点ですべてのパラメーターを積極的に使用していますが、そのうち2つはオープンウェイトです。
- QWEN3-235B-A22B: 2,350億パラメーターを備えた大きなモデル、そのうち220億はアクティブ化されたパラメーターです。
- QWEN3-30B-A3B:合計300億パラメーターと30億のアクティブ化されたパラメーターを備えたより小さなMOE。
8つのQWEN3モデルすべての詳細な比較を次に示します。
モデル | レイヤー | ヘッド(Q/kv) | タイ埋め込み | コンテキストの長さ |
QWEN3-0.6B | 28 | 16/8 | はい | 32K |
QWEN3-1.7B | 28 | 16/8 | はい | 32K |
QWEN3-4B | 36 | 32/8 | はい | 32K |
QWEN3-8B | 36 | 32/8 | いいえ | 128K |
QWEN3-14B | 40 | 40/8 | いいえ | 128K |
QWEN3-32B | 64 | 64/8 | いいえ | 128K |
QWEN3-30B-A3B | 48 | 32/4 | いいえ | 128K |
QWEN3-235B-A22B | 94 | 64/4 | いいえ | 128K |
これがテーブルの言うことです:
-
レイヤー:レイヤーは、使用される変圧器ブロックの数を表します。これには、マルチヘッドの自己関節メカニズム、フィードフォワードネットワーク、位置エンコード、層の正規化、および残留接続が含まれます。したがって、QWEN3-30B-A3Bには48層があると言うと、モデルが順番にまたは並行して積み重ねられた48の変圧器ブロックを使用していることを意味します。
-
ヘッド:トランスはマルチヘッドの注意を使用します。これは、データから新しい側面を学習するために、注意メカニズムをいくつかのヘッドに分割します。ここで、Q/KVは次のことを表します。
- Q(クエリヘッド):クエリの生成に使用される注意ヘッドの総数。
- KV(キーと値):注意ブロックごとにキー/バリューヘッドの数。
注:キー、クエリ、および値のこれらの注意ヘッドは、自己関節によって生成されるキー、クエリ、および値ベクトルとはまったく異なります。
また読む:QWEN3モデル:アクセス、パフォーマンス、機能、アプリケーションの方法
QWEN3の主要な機能
QWEN3モデルの主要な機能の一部を次に示します。
-
トレーニング前:トレーニング前のプロセスは3つの段階で構成されています。
- 最初の段階では、このモデルは、コンテキスト長の4Kトークンを持つ30兆以上のトークンで前提とされていました。これにより、モデルの基本的な言語スキルと一般的な知識が教えられました。
- 第2段階では、STEM、コーディング、推論タスクなどの知識集約型データの割合を増やすことにより、データの品質が向上しました。その後、モデルはさらに5兆トークンで訓練されました。
- 最終段階では、コンテキストの長さを32Kトークンに増やすことにより、高品質の長いコンテキストデータが使用されました。これは、モデルがより長い入力を効果的に処理できるようにするために行われました。
-
トレーニング後:段階的な推論と迅速な対応の両方が可能なハイブリッドモデルを開発するために、4段階のトレーニングパイプラインが実装されました。これは次のとおりです。
- 長い考え方(COT)
- 推論ベースの強化学習(RL)
- 思考モードの融合
- 一般RL
-
ハイブリッド思考モード: QWEN3モデルは、2つの新しいモードを備えた問題解決にハイブリッドアプローチを使用します。
- 思考モード:このモードでは、モデルは複雑な問題ステートメントを小さくて手続き的な手順に分割して解決することで時間がかかります。
- 非思考モード:このモードでは、モデルは迅速な結果を提供し、より単純な質問に最も適しています。
- 多言語サポート: QWEN3モデルは119の言語と方言をサポートしています。これにより、世界中のユーザーがこれらのモデルの恩恵を受けるのに役立ちます。
- 即興エージェント機能: QWENは、モデルコンテキストプロトコル(MCP)もサポートするために、より良いコーディングおよびエージェント機能のためにQWEN3モデルを最適化しました。
APIを介してQWEN3モデルにアクセスする方法
QWEN3モデルを使用するには、OpenRouter APIを使用してAPIを介してアクセスします。これがそれを行う方法です:
- OpenRouterでアカウントを作成し、モデル検索バーに移動して、そのモデルのAPIを見つけます。
- 選択したモデルを選択し、ランディングページの[APIキーの作成]をクリックして、新しいAPIを生成します。
QWEN3を使用してAIソリューションを強化します
このセクションでは、QWEN3を使用してAIアプリケーションを構築するプロセスを実行します。最初に、モデルを使用してAI搭載のトラベルプランナーエージェントを作成し、次にLangchainを使用してQ/Aラグボットを作成します。
前提条件
QWEN3を使用して実際のAIソリューションを構築する前に、まず次のような基本的な前提条件をカバーする必要があります。
- コマンドプロンプトまたは端末に精通し、ターミナルを通過する機能。
- 環境変数を設定する機能。
- pythonをインストールする必要があります:https://www.python.org/downloads/
- Langchainの基本に関する知識:https://www.langchain.com/
QWEN3を使用してAIエージェントを構築します
このセクションでは、QWEN3を使用して、訪問している都市または場所の主要な移動スポットを提供するAI搭載の旅行代理店を作成します。また、エージェントがインターネットを検索して更新された情報を見つけ、通貨変換を可能にするツールを追加できるようにします。
ステップ1:ライブラリとツールのセットアップ
まず、エージェントの構築に必要な必要なライブラリとツールをインストールしてインポートします。
!ピップインストールLangchain Langchain-Community Openai Duckduckgo-Search langchain.chat_modelsからChatopenaiをインポートします langchain.agentsインポートツールから langchain.toolsからImport duckduckgosearchrun langchain.agentsからIntialize_Agentをインポートします LLM = Chatopenai( base_url = "https://openrouter.ai/api/v1"、 api_key = "your_api_key"、 Model = "QWEN/QWEN3-235B-A22B:無料" )) #ウェブ検索ツール 検索= duckduckgosearchrun() #DestinationAgentのツール def get_destinations(宛先): return search.run(f "{Destination}のトップ3観光スポット") DestinationTool = Tool( name = "Destination Procemender"、 func = get_destinations、 説明= "都市で訪れる最高の場所を見つける" )) #CurrencyAgentのツール def convert_usd_to_inr(query): 額= [sprit()のsのsのfloat(s)s.replace( '。'、 ''、1).isdigit()]] 金額の場合: return f "{rument [0]} usd = {amont [0] * 83.2:.2f} inr" 「金額を解析できませんでした」。 CurrencyTool = Tool( name = "Currency Converter"、 func = convert_usd_to_inr、 説明= "静的レートに基づいてUSDをINRに変換します" ))
- search_tool: duckduckgosearchrun()を使用すると、エージェントはWeb検索を使用して、人気のある観光スポットに関するリアルタイム情報を取得できます。
- DestinationTool: get_destinations()関数を適用します。これは、検索ツールを使用して、特定の都市の上位3つの観光スポットを取得します。
- CurrencyTool: convert_usd_to_inr()関数を使用して、価格をUSDからINRに変換します。関数の「INR」を変更して、選択した通貨に変換できます。
また読む:Huggingface、Langchain、およびMistralaiと一緒に旅行アシスタントチャットボットを構築する
ステップ2:エージェントの作成
すべてのツールを初期化したので、ツールを使用して旅行の計画を提供するエージェントの作成に進みましょう。
ツール= [DestinationTool、currencyTool] agent = initialize_agent( ツール=ツール、 LLM = LLM、 agent_type = "zero-shot-reactscription"、 verbose = true )) def trip_planner(市、usd_budget): dest = get_destinations(都市) inr_budget = convert_usd_to_inr(f "{usd_budget} usd to inr") f "" "これがあなたの旅行計画です: *{city}のトップスポット*: {dest} *予算*: {inr_budget} あなたの日帰り旅行をお楽しみください! "" "
- intialize_agent:この関数は、ゼロショット反応アプローチを使用してLangchainを持つエージェントを作成します。これにより、エージェントはツールの説明を理解できます。
- agent_type: 「ゼロショット反応デスクリプト」により、エージェントLLMは、ツールの説明と入力を使用して、事前知識なしに特定の状況で使用すべきツールを決定することができます。
- verbose: verboseは、エージェントの思考プロセスのログを可能にするため、呼び出されたすべてのインタラクションやツールを含む、エージェントが行う各決定を監視できます。
- TRIP_PLANNER:これは、エージェントに依存するのではなく、手動でツールを呼び出すPython関数です。これにより、ユーザーは特定の問題に最適なツールを選択できます。
ステップ3:エージェントの初期化
このセクションでは、エージェントを初期化し、その応答を観察します。
#エージェントを初期化します City = "Delhi" usd_budget = 8500 #マルチエージェントプランナーを実行します response = agent.run(f "{usd_budget} usdの予算で{city}への日帰り旅行を計画する") iPython.displayからインポートマークダウン、ディスプレイ ディスプレイ(マークダウン(応答))
- エージェントの呼び出し: agent.run()は、プロンプトを介してユーザーの意図を使用し、旅行を計画します。
出力
QWEN3を使用してRAGシステムを構築します
このセクションでは、知識ベースから関連する入力ドキュメント内のクエリに答えるRAGボットを作成します。これにより、QWEN/QWEN3-235B-A22Bを使用した有益な応答が得られます。また、システムはLangchainを使用して、正確でコンテキストを意識した応答を生成します。
ステップ1:ライブラリとツールのセットアップ
まず、RAGシステムの構築に必要な必要なライブラリとツールをインストールおよびインポートします。
!ピップインストールlangchain langchain-community langchain-core openai tiktoken chromadb cente-transformers duckduckgo-search langchain_community.document_loadersからtextloaderをインポートします langchain.text_splitterからImport charactesTextSplitterから langchain_community.vectorstoresからImport Chromaから langchain.embeddingsからImport Huggingfacembeddingsから langchain.chainsからimport retirevalqaから langchain.chat_modelsからChatopenaiをインポートします #ドキュメントをロードします loader = textloader( "/content/my_docs.txt") docs = roader.load()
- ロードドキュメント: Langchainの「TextLoader」クラスは、Q/A取得に使用されるPDF、TXT、またはDOCファイルのようにドキュメントをロードします。ここでは、my_docs.txtをアップロードしました。
- ベクトルのセットアップの選択: ChromADBを使用して、Q/AプロセスのVectorデータベースから埋め込みを保存および検索しました。
ステップ2:埋め込みの作成
ドキュメントをロードしたので、検索プロセスを緩和するのに役立つ埋め込みの作成に進みましょう。
#チャンクに分かれます splitter = charateTextSplitter(chunk_size = 300、chunk_overlap = 50) chunks = splitter.split_documents(docs) #ハギングフェイスモデルに埋め込まれています 埋め込み= huggingfacembedings(model_name = "all-minilm-l6-v2") db = chroma.from_documents(チャンク、埋め込み=埋め込み) #OpenRouterからQWen LLMをセットアップします LLM = Chatopenai( base_url = "https://openrouter.ai/api/v1"、 api_key = "your_api_key"、 Model = "QWEN/QWEN3-235B-A22B:無料" )) #ラグチェーンを作成します retriever = db.as_retriever(search_kwargs = {"k":2}) rag_chain = retirevalqa.from_chain_type(llm = llm、retriver = retirever)
- ドキュメントの分割: CharateTextSplitter()は、テキストを小さなチャンクに分割します。これは主に2つのことに役立ちます。第一に、検索プロセスを緩和し、第二に、chunk_overlapを介して以前のチャンクからコンテキストを保持するのに役立ちます。
- 埋め込みドキュメント:埋め込みテキストを、各トークンの設定された寸法の埋め込みベクトルに変換します。ここでは、300のChunk_sizeを使用しました。つまり、すべての単語/トークンが300寸法のベクトルに変換されます。これで、このベクトルの埋め込みは、チャンクの他の単語に関して、その単語のすべての文脈情報を備えています。
- RAGチェーン: RAGチェーンは、ChromadBとLLMを組み合わせてRAGを形成します。これにより、ドキュメントやモデルから文脈的に意識した回答を取得できます。
ステップ3:RAGシステムの初期化
#質問してください response = rag_chain.invoke({"query": "qwenをmcpで使用するにはどうすればよいですか。必要なコードスニペットと一緒に段階的なガイドを教えてください}) display(markdown(response ['result']))
- クエリ実行: RAG_CHAIN_INVOKE()メソッドは、ユーザーのクエリをRAGシステムに送信し、ドキュメントストア(Vector DB)から関連するコンテキストアウェアチャンクを取得し、コンテキスト対応の回答を生成します。
出力
ここで完全なコードを見つけることができます。
QWEN3のアプリケーション
業界全体でQWEN3のいくつかのアプリケーションを次に示します。
- 自動コーディング: QWEN3は、コードのドキュメントを生成、デバッグ、および提供することができます。これにより、開発者は手動の努力なしでエラーを解決できます。 22Bパラメーターモデルはコーディングに優れており、DeepSeek-R1、Gemini 2.5 Pro、OpenaiのO3-Miniなどのモデルに匹敵します。
- 教育と研究: QWEN3アーカイブ数学、物理学、および論理的推論の問題解決における高精度。また、Gemini 2.5 Proに匹敵しますが、OpenaiのO1、O3-Mini、Deepseek-R1、Grok 3ベータなどのモデルで優れています。
- エージェントベースのツールの統合: QWEN3は、外部ツール、API、およびMCPをマルチステップおよびマルチエージェントワークフローに使用して、エージェントの相互作用をさらに簡素化することにより、AIエージェントタスクをリードします。
- 高度な推論タスク: QWEN3は、広範な思考機能を使用して、最適で正確な応答を提供します。このモデルは、複雑なタスクのチェーンオブ考えの推論と、最適化された速度のために非思考モードを使用します。
結論
この記事では、QWEN3を搭載したエージェントAIおよびRAGシステムを構築する方法を学びました。 QWEN3の高性能、多言語サポート、および高度な推論機能により、知識の検索とエージェントベースのタスクに強い選択肢となります。 QWEN3をRAGおよびエージェントパイプラインに統合することにより、正確でコンテキスト対応、スムーズな応答を得ることができ、AI搭載システムの実際のアプリケーションの強力な競争相手になります。
よくある質問
Q1。 QWEN3は、RAGの他のLLMSとどのように異なりますか?A. QWEN3には、応答に動的な変更を加えることができるハイブリッド推論機能があり、検索と複雑な分析の両方のRAGワークフローを最適化できるようにします。
Q2。 RAGを統合するために必要なツールは何ですか?A.主に、ベクトルデータベース、埋め込みモデル、Langchainワークフロー、APIが含まれてモデルにアクセスします。
Q3。 QWEN3は、エージェントワークフローの多段階ツールチェーンを許可できますか?はい、QWen-Agentビルトインツール呼び出しテンプレートを使用すると、Web検索、データ分析、レポート生成などのシーケンシャルツール操作を解析および有効にすることができます。
Q4。 QWEN3エージェント応答のレイテンシを減らす方法は? A.多くの方法でレイテンシを減らすことができますが、それらのいくつかは次のとおりです。
1。QWEN3-30B-A3BなどのMOEモデルの使用。これには、30億個のアクティブパラメーターしかありません。
2。GPU最適化された推論を使用します。
A.一般的なエラーには以下が含まれます。
1。JSONのフォーマットやinitなどのMCPサーバーの初期化障害。
2。ツール応答ペアリングエラー。
3。コンテキストウィンドウオーバーフロー。
以上がQWEN3でRAGシステムとAIエージェントを構築する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

AIエージェントは現在、大小さまざまな企業の一部です。病院でフォームに記入したり、法的文書をチェックしたり、ビデオ映像を分析したり、カスタマーサポートを処理したりすることから、あらゆる種類のタスクにAIエージェントがあります。仲間

人生は良いです。 予測可能です。分析的な心がそれを好む方法です。あなたは今日、オフィスに飛び込んで、土壇場の事務処理を終えました。その直後、あなたはあなたのパートナーと子供を晴れたhへの適切な休暇のために連れて行きます

しかし、科学的なコンセンサスにはしゃっくりとゴッチャがあり、おそらくより賢明なアプローチは、同意としても知られる証拠の収束の使用によるものです。 それについて話しましょう。 革新的なAIブレークスルーのこの分析は私の一部です

OpenaiもStudio Ghibliも、この話のコメントのリクエストに応答しませんでした。しかし、彼らの沈黙は、創造的経済におけるより広く、より複雑な緊張を反映しています。生成AIの時代において著作権はどのように機能するべきですか? のようなツール付き

コンクリートとソフトウェアの両方は、必要に応じて堅牢なパフォーマンスを得るために亜鉛メッキできます。どちらもストレステストを受ける可能性があり、両方とも時間の経過とともに亀裂や亀裂に苦しむことがあります。

ただし、レポートの多くは非常に表面レベルで停止します。 Windsurfが何であるかを把握しようとしている場合、Google検索エンジンの上部に表示されるシンジケートコンテンツから必要なものを手に入れることができるかもしれません。

重要な事実 オープンレターに署名するリーダーには、Adobe、Accenture、AMD、American Airlines、Blue Origin、Cognizant、Dell、Dropbox、IBM、LinkedIn、Lyft、Microsoft、Salesforce、Uber、Yahoo、Zoomなど、注目度の高い企業のCEOが含まれます。

そのシナリオはもはや投機的なフィクションではありません。対照実験では、アポロの研究では、GPT-4が違法なインサイダー取引計画を実行し、それについて調査官に嘘をついていることが示されました。エピソードは、2つの曲線が上昇しているという鮮明なリマインダーです


ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

MantisBT
Mantis は、製品の欠陥追跡を支援するために設計された、導入が簡単な Web ベースの欠陥追跡ツールです。 PHP、MySQL、Web サーバーが必要です。デモおよびホスティング サービスをチェックしてください。

mPDF
mPDF は、UTF-8 でエンコードされた HTML から PDF ファイルを生成できる PHP ライブラリです。オリジナルの作者である Ian Back は、Web サイトから「オンザフライ」で PDF ファイルを出力し、さまざまな言語を処理するために mPDF を作成しました。 HTML2FPDF などのオリジナルのスクリプトよりも遅く、Unicode フォントを使用すると生成されるファイルが大きくなりますが、CSS スタイルなどをサポートし、多くの機能強化が施されています。 RTL (アラビア語とヘブライ語) や CJK (中国語、日本語、韓国語) を含むほぼすべての言語をサポートします。ネストされたブロックレベル要素 (P、DIV など) をサポートします。

SublimeText3 Linux 新バージョン
SublimeText3 Linux 最新バージョン

Safe Exam Browser
Safe Exam Browser は、オンライン試験を安全に受験するための安全なブラウザ環境です。このソフトウェアは、あらゆるコンピュータを安全なワークステーションに変えます。あらゆるユーティリティへのアクセスを制御し、学生が無許可のリソースを使用するのを防ぎます。

SecLists
SecLists は、セキュリティ テスターの究極の相棒です。これは、セキュリティ評価中に頻繁に使用されるさまざまな種類のリストを 1 か所にまとめたものです。 SecLists は、セキュリティ テスターが必要とする可能性のあるすべてのリストを便利に提供することで、セキュリティ テストをより効率的かつ生産的にするのに役立ちます。リストの種類には、ユーザー名、パスワード、URL、ファジング ペイロード、機密データ パターン、Web シェルなどが含まれます。テスターはこのリポジトリを新しいテスト マシンにプルするだけで、必要なあらゆる種類のリストにアクセスできるようになります。
