ホームページ > 記事 > テクノロジー周辺機器 > 言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer
自然言語処理タスクでは、大規模な言語モデルがゼロショット学習と少数ショット学習で素晴らしい結果を達成しました。ただし、すべてのモデルには固有の制限があり、多くの場合、さらなる拡張によって部分的にしか対処できません。具体的には、モデルの限界には、最新の情報にアクセスできないこと、事実の「情報幻覚」、低リソース言語を理解することの難しさ、正確な計算のための数学的スキルの欠如などが含まれます。
これらの問題を解決する簡単な方法は、モデルに検索エンジン、計算機、カレンダーなどの外部ツールを装備することです。ただし、既存の方法では、大規模な手動の注釈に依存したり、ツールの使用を特定のタスク設定に制限したりすることが多く、外部ツールと組み合わせた言語モデルの使用を一般化することが困難です。
このボトルネックを打破するために、Meta AI は最近、Toolformer と呼ばれる新しいメソッドを提案しました。これにより、言語モデルがさまざまな外部ツールの「使い方」を学習できるようになります。
論文アドレス: https://arxiv.org/pdf/2302.04761v1.pdf
Toolformer はすぐに大きな注目を集め、この論文が現在の大規模言語モデルの多くの問題を解決したと信じ、「これはここ数週間で最も重要な論文だ。論文」と称賛する人もいました。
Toolformer は自己教師あり学習を使用して、大規模な言語モデルがいくつかの API の使い方を学習できるようにしていると指摘する人もいます。非常に柔軟で効率的なツール:
Toolformer が私たちを一般的な人工知能から遠ざけてしまうと考える人さえいます ( AGI)また一歩近づいた。
Toolformer がこのような高い評価を得ているのは、次の実際的なニーズを満たしているためです。
方法
Toolformer は使用されるデータセットに依存しないため、モデルが事前トレーニングされたのとまったく同じデータセットで使用できます。これにより、モデルの一般性が失われず、言語モデリング機能。
具体的には、この研究の目標は、言語モデル M に API 呼び出しを通じてさまざまなツールを使用できる機能を装備することです。これには、各 API の入力と出力が一連のテキストとして特徴付けられることが必要です。これにより、各呼び出しの開始と終了をマークするために特別なトークンを使用して、API 呼び出しを任意のテキストにシームレスに挿入できるようになります。
調査では、各 API 呼び出しをタプルとして表します
、ここで、a_c は API の名前、i_c は対応する入力です。 API 呼び出し c と対応する結果 r が与えられた場合、この研究では、その結果を除外および含む API 呼び出しの線形化シーケンスを次のように表します。
このうち、
#指定されたデータセット
、調査ではまず、API 呼び出しを追加して、このデータ セットをデータ セット C* に変換しました。これは、以下の図 2 に示すように 3 つのステップで行われます。まず、この研究では M のコンテキスト内学習機能を活用して、多数の潜在的な API 呼び出しをサンプリングし、次にこれらの API 呼び出しを実行して、得られた応答が予測に役立つかどうかを確認します。フィルタリング基準として使用される将来のトークン。フィルタリング後、研究では API 呼び出しをさまざまなツールにマージし、最終的にデータセット C* を生成し、このデータセット上で M 自体を微調整します。
実験と結果研究は、さまざまな下流タスクについて実施されました。実験結果は次のことを示しています: 6.7B パラメーターで事前トレーニングされた GPT-J モデル (さまざまな API とツールの使用を学習した) に基づく Toolformer は、さまざまなタスクにおいて、より大きな GPT-3 モデルや他のいくつかのベースラインよりも大幅に優れたパフォーマンスを発揮します。
この研究では、LAMA ベンチマークの SQuAD、GoogleRE、および T-REx サブセットに関するいくつかのモデルを評価しました。実験結果を以下の表 3 に示します。
#Toolformer の数学的推論機能をテストするために、この研究では ASDiv、SVAMP、および MAWPS ベンチマークで実験を実施しました。実験によると、Toolformer はほとんどの場合に計算ツールを使用しており、OPT (66B) や GPT-3 (175B) よりも大幅に優れています。
#質問応答の観点から、この研究では 3 つの質問応答データ セット (Web 質問、自然な質問、およびトリビアQA 。 Toolformer は、同じサイズのベースライン モデルよりも大幅に優れたパフォーマンスを発揮しますが、GPT-3 (175B) には劣ります。
言語をまたいだタスクに関して、この調査では Toolformer と MLQA のすべてのベースライン モデルを比較しました。結果は次のとおりです。表 6 に示すように、
##カレンダー API の有効性を調査するために、調査は次のように行われました。 TEMPLAMA と DATESET と呼ばれる新しい API 実験は、データセット上のいくつかのモデルで実施されました。 Toolformer はすべてのベースラインを上回っていますが、TEMPLAMA カレンダー ツールは使用しません。
この研究では、さまざまなダウンストリーム タスクのパフォーマンス向上を検証することに加えて、Toolformer の言語モデリングのパフォーマンスが API 呼び出しの微調整によって低下しないことを確認したいと考えています。この目的を達成するために、この研究では 2 つの言語モデリング データセットで実験を行って評価します。モデルの複雑度は以下の表 8 に示されています。
API 呼び出しを行わない言語モデリングの場合、API 呼び出しを追加するコストはかかりません。
最後に、研究者らは、外部ツールに助けを求める機能が、言語のサイズに応じてモデルにどのような影響を与えるかを分析しました。パフォーマンスの影響、分析結果を以下の図 4 に示します
興味のある読者は原文を読むことができます詳細については、論文を参照してください。詳細を調べてください。
以上が言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformerの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。