ホームページ >テクノロジー周辺機器 >AI >Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

WBOY
WBOY転載
2023-09-18 09:09:15795ブラウズ

大規模モデルが新たな AI ブームを引き起こすにつれて、人々は次のように考え始めました。大規模モデルの強力な機能の源は何だろうか?

現在、大規模モデルは、増え続ける「ビッグデータ」によって推進されています。 「ビッグ モデル ビッグ データ」は、モデルを構築するための標準的なパラダイムになっているようです。ただし、モデルのサイズとデータ量が増大し続けるにつれて、コンピューティング能力の需要は急速に拡大します。新しいアイデアを模索しようとしている研究者もいます。 書き直された内容: 現在、大規模モデルは増え続ける「ビッグデータ」によって推進されています。 「大規模モデル ビッグデータ」は、モデルを構築するための標準的なパラダイムになっているようです。ただし、モデルのサイズとデータ量が増加し続けるにつれて、コンピューティング能力の需要は急速に拡大します。一部の研究者は新しいアイデアを模索しようとしています

マイクロソフトは 6 月に「Just Textbooks」と呼ばれる論文を発表しました。この論文では、わずか 70 億個のマーカーのデータセットを使用して、1.3B パラメーターを含む phi と呼ばれるモデルを作成しました。 -1、訓練されました。 phi-1 は、競合他社よりも桁違いに小さいデータセットとモデル サイズを備えているにもかかわらず、HumanEval テストで 50.6%、MBPP テストで 55.5% の初回合格率を達成しました

phi-1 は、高品質の「小さなデータ」がモデルに優れたパフォーマンスを与えることができることを証明しています。最近、Microsoft は、高品質の「スモール データ」の可能性をさらに研究するために、論文「Textbooks Are All You Need II: phi-1.5 技術レポート」を発表しました。

Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

論文アドレス: https://arxiv.org/abs/2309.05463

モデルの紹介

アーキテクチャ

研究チームは、phi-1 研究手法を使用し、常識的な推論のため、自然言語に研究を集中させました。タスクに基づいて、1.3B パラメータを備えた Transformer アーキテクチャ言語モデル phi-1.5 が開発されました。 phi-1.5 のアーキテクチャは phi-1 とまったく同じで、24 層、32 ヘッドを持ち、各ヘッドの次元は 64 で、回転次元 32 の回転埋め込みとコンテキスト長 2048## を使用します。

#さらに、この研究ではトレーニングの高速化と codegen-mono のトークナイザーに flash-attention も使用しています。

Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

#書き換える必要がある内容は次のとおりです: トレーニング データ

phi-1.5用に書き換える内容は、学習データ(7Bトークン)と、phi-1用に新たに作成した「教科書品質」データ(約20Bトークン)で構成されます。その中で、新たに作成された「教科書品質」データは、モデルが常識推論を習得できるように設計されており、研究チームは2万件のトピックを厳選して新しいデータを生成しました。

ネットワーク データ (LLM で一般的に使用される) の重要性を調査するために、この研究では phi-1.5-web-only と phi- という 2 つのモデルも構築されたことは注目に値します。 1.5ウェブ。

研究チームは次のように述べています: 強力で包括的なデータセットを作成するには、生のコンピューティング能力だけでなく、複雑な反復、効果的なトピックの選択、知識の深い理解も必要です。これらの要素により、データの品質と多様性。

実験結果

この研究では、PIQA、Hellaswag、OpenbookQA、SQUAD、MMLU などの複数のデータセットを使用して、言語理解タスクを評価しました。評価結果を表 3 に示します。phi-1.5 の性能は、一般的な 5 倍のモデルと同等です。感覚推論ベンチマーク: テスト結果を以下の表に示します:

Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

小学校の数学や基本的なコーディング タスクなど、より複雑な推論タスク、phi-1.5 が優れている LLM

Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

研究チームのほとんどは、phi-1.5 が高品質の「小規模データ」の力を再び証明すると信じています。 。

Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

質問とディスカッション

おそらく「ビッグモデルとビッグデータ」という概念が人々の心に深く根付いているからでしょう。この研究は批判されています。機械学習コミュニティの一部の研究者は懐疑的であり、phi-1.5 がテスト ベンチマーク データ セットで直接トレーニングされたのではないかと疑う人さえいます。

Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

ネチズンのスーザン・チャンは一連の検証を実施し、「phi-1.5 は GSM8K データの元の問題に対して完全に正しい答えを与えることができる」と指摘しました。 set.answer ですが、形式が少し変更されている限り (改行など)、phi-1.5 は応答しません。

Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

##質問内のデータも変更します。phi-1.5 は質問に答える過程で「錯覚」を引き起こします。たとえば、食品の注文の問題で、「ピザの価格」のみが変更された場合、phi-1.5 の答えは間違っています。


Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探るそして、phi-1.5 は最終的な答えを「覚えている」ようですたとえデータが修正されていても、答えがすでに間違っている場合でも。


Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

これに関して、論文の著者であるロナン・エルダン氏はすぐに反応し、上記のネットユーザーに現れた問題を説明し、反論しました。テスト:

Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

#しかし、ネチズンは再び自分の見解を述べました: テストは、phi-1.5 に対する答えが非常に「脆弱」であることを示していますプロンプトの形式に問題があり、著者に有害です。 質問への回答:

Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

この論文の筆頭著者である Li Yuanzhi 氏は次のように回答しました。 : 「確かに、堅牢性の点では phi-1.5 は GPT-4 よりも劣りますが、「壊れやすい」というのは正確な用語ではありません。実際、どのモデルでも、 pass@k の精度は pass@1 よりもはるかに高くなります (したがって、モデルの正しさは偶然です)

Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

これらの質問や議論を見たネチズンは、「最も簡単な対応方法は、合成データを作成することです」と言いました。公開設定します。 「

Microsoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探る

これについてどう思いますか?

以上がMicrosoft の超強力な小型モデルが白熱した議論を巻き起こす: 教科書レベルのデータの大きな役割を探るの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。