ホームページ  >  記事  >  テクノロジー周辺機器  >  言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

WBOY
WBOY転載
2023-04-08 11:11:10927ブラウズ

自然言語処理タスクでは、大規模な言語モデルがゼロショット学習と少数ショット学習で素晴らしい結果を達成しました。ただし、すべてのモデルには固有の制限があり、多くの場合、さらなる拡張によって部分的にしか対処できません。具体的には、モデルの限界には、最新の情報にアクセスできないこと、事実の「情報幻覚」、低リソース言語を理解することの難しさ、正確な計算のための数学的スキルの欠如などが含まれます。

これらの問題を解決する簡単な方法は、モデルに検索エンジン、計算機、カレンダーなどの外部ツールを装備することです。ただし、既存の方法では、大規模な手動の注釈に依存したり、ツールの使用を特定のタスク設定に制限したりすることが多く、外部ツールと組み合わせた言語モデルの使用を一般化することが困難です。

このボトルネックを打破するために、Meta AI は最近、Toolformer と呼ばれる新しいメソッドを提案しました。これにより、言語モデルがさまざまな外部ツールの「使い方」を学習できるようになります。

言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

論文アドレス: https://arxiv.org/pdf/2302.04761v1.pdf

Toolformer はすぐに大きな注目を集め、この論文が現在の大規模言語モデルの多くの問題を解決したと信じ、「これはここ数週間で最も重要な論文だ。論文」と称賛する人もいました。

言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

Toolformer は自己教師あり学習を使用して、大規模な言語モデルがいくつかの API の使い方を学習できるようにしていると指摘する人もいます。非常に柔軟で効率的なツール:

言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

Toolformer が私たちを一般的な人工知能から遠ざけてしまうと考える人さえいます ( AGI)また一歩近づいた。

言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

Toolformer がこのような高い評価を得ているのは、次の実際的なニーズを満たしているためです。

    大規模な言語モデルは、人間による広範な注釈を必要とせずに、自己教師付きの方法でツールの使用法を学習する必要があります。人間によるアノテーションのコストは高いため、これは重要ですが、さらに重要なのは、人間が有用だと考えるものは、モデルが有用だと考えるものと異なる可能性があることです。
  • 言語モデルでは、特定のタスクに限定されないツールをより包括的に使用する必要があります。
  • #これにより、上記のボトルネックが明らかに解消されます。 Toolformer の手法と実験結果を詳しく見てみましょう。

方法

Toolformer は、コンテキスト内学習 (ICL) を備えた大規模な言語モデルに基づいてデータセットを最初から生成します (Schick and Schütze、2021b; Honovich et al. 、2022; Wang et al.、2022) のアイデア: API を使用する人間のサンプルをいくつか挙げるだけで、LM に潜在的な API 呼び出しを含む巨大な言語モデリング データセットに注釈を付けさせ、その後、自己教師あり損失関数を使用して次のことを決定できます。どの API 呼び出しが実際にモデルが将来のトークンを予測するのに役立つか、そして最終的には LM 自体に役立つ API 呼び出しに基づいて微調整します。

Toolformer は使用されるデータセットに依存しないため、モデルが事前トレーニングされたのとまったく同じデータセットで使用できます。これにより、モデルの一般性が失われず、言語モデリング機能。

具体的には、この研究の目標は、言語モデル M に API 呼び出しを通じてさまざまなツールを使用できる機能を装備することです。これには、各 API の入力と出力が一連のテキストとして特徴付けられることが必要です。これにより、各呼び出しの開始と終了をマークするために特別なトークンを使用して、API 呼び出しを任意のテキストにシームレスに挿入できるようになります。

調査では、各 API 呼び出しをタプルとして表します

言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

、ここで、a_c は API の名前、i_c は対応する入力です。 API 呼び出し c と対応する結果 r が与えられた場合、この研究では、その結果を除外および含む API 呼び出しの線形化シーケンスを次のように表します。

言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

このうち、、「→」は特別なトークンです。以下の図 1 に示すように、このアプローチにより、LM はさまざまなツールの制御方法を学び、どのツールをいつどのように使用するかを自分で選択できるようになります。

言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

#指定されたデータセット

言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

、調査ではまず、API 呼び出しを追加して、このデータ セットをデータ セット C* に変換しました。これは、以下の図 2 に示すように 3 つのステップで行われます。まず、この研究では M のコンテキスト内学習機能を活用して、多数の潜在的な API 呼び出しをサンプリングし、次にこれらの API 呼び出しを実行して、得られた応答が予測に役立つかどうかを確認します。フィルタリング基準として使用される将来のトークン。フィルタリング後、研究では API 呼び出しをさまざまなツールにマージし、最終的にデータセット C* を生成し、このデータセット上で M 自体を微調整します。

言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

実験と結果

研究は、さまざまな下流タスクについて実施されました。実験結果は次のことを示しています: 6.7B パラメーターで事前トレーニングされた GPT-J モデル (さまざまな API とツールの使用を学習した) に基づく Toolformer は、さまざまなタスクにおいて、より大きな GPT-3 モデルや他のいくつかのベースラインよりも大幅に優れたパフォーマンスを発揮します。

この研究では、LAMA ベンチマークの SQuAD、GoogleRE、および T-REx サブセットに関するいくつかのモデルを評価しました。実験結果を以下の表 3 に示します。

言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer#Toolformer の数学的推論機能をテストするために、この研究では ASDiv、SVAMP、および MAWPS ベンチマークで実験を実施しました。実験によると、Toolformer はほとんどの場合に計算ツールを使用しており、OPT (66B) や GPT-3 (175B) よりも大幅に優れています。

#質問応答の観点から、この研究では 3 つの質問応答データ セット (Web 質問、自然な質問、およびトリビアQA 。 Toolformer は、同じサイズのベースライン モデルよりも大幅に優れたパフォーマンスを発揮しますが、GPT-3 (175B) には劣ります。 言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

言語をまたいだタスクに関して、この調査では Toolformer と MLQA のすべてのベースライン モデルを比較しました。結果は次のとおりです。表 6 に示すように、言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

##カレンダー API の有効性を調査するために、調査は次のように行われました。 TEMPLAMA と DATESET と呼ばれる新しい API 実験は、データセット上のいくつかのモデルで実施されました。 Toolformer はすべてのベースラインを上回っていますが、TEMPLAMA カレンダー ツールは使用しません。

言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

この研究では、さまざまなダウンストリーム タスクのパフォーマンス向上を検証することに加えて、Toolformer の言語モデリングのパフォーマンスが API 呼び出しの微調整によって低下しないことを確認したいと考えています。この目的を達成するために、この研究では 2 つの言語モデリング データセットで実験を行って評価します。モデルの複雑度は以下の表 8 に示されています。

API 呼び出しを行わない言語モデリングの場合、API 呼び出しを追加するコストはかかりません。

言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

最後に、研究者らは、外部ツールに助けを求める機能が、言語のサイズに応じてモデルにどのような影響を与えるかを分析しました。パフォーマンスの影響、分析結果を以下の図 4 に示します

言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformer

興味のある読者は原文を読むことができます詳細については、論文を参照してください。詳細を調べてください。

以上が言語モデルは独自に検索エンジンの使い方を学習しましたか?メタAIがAPI呼び出し自己教師あり学習手法を提案 Toolformerの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。