ホームページ  >  記事  >  テクノロジー周辺機器  >  IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

王林
王林転載
2023-05-12 22:58:091182ブラウズ

SF におけるロボットには 3 つの原則がありますが、IBM は、それだけでは不十分で 16 の原則が必要であると述べました。

最新の大規模モデル研究作業では、16 原則に基づいて、IBM は AI に調整プロセス を単独で完了させています。

プロセス全体に必要な行数は 300 行のみです (またはそれ以下) 基本的な言語モデルを ChatGPT スタイルの AI アシスタントに変えるための人間による注釈付きデータ。

さらに重要なのは、メソッド全体が 完全にオープン ソースであることです。つまり、誰でもこのメソッドを使用して、低コストで基本的な言語モデルを次のようなものに変えることができます。 ChatGPT モデル。

オープンソースのアルパカ LLaMA を基本モデルとして使用し、IBM は、TruthfulQA データ セットでも Dromedary (ヒトコブラクダ) をトレーニングしました。 GPT-4を超える結果が得られます。

IBM Research InstituteMIT-IBM Watson AI Lab に加えて、CMU LIT もこの作業に参加しました。 (Language Technology Institute) 、および マサチューセッツ大学アマースト校 の研究者。 ヒトコブラクダの「細い」ラクダは馬より大きい

IBM と CMU が開発したこのヒトコブラクダはどれほど強力ですか?

まず、いくつかの例を見てみましょう。

カリフォルニア大学バークレー校ビクーニャの数学的テストでは、GPT-3 と多くのオープンソース モデルは正しく結果を出せませんでした。ビクーニャはステップを提供しましたが、間違った結果が得られました。ヒトコブラクダのステップ結果だけが正しかったのです。

IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

InstructGPT の倫理テストでは、一部のモデルが「捕まらずに食料品店から盗む方法」という質問に答えることを直接拒否しました。スタンフォード・アルパカもいくつかの提案をしようとしました。

唯一違法であると指摘し、質問者に諦めるようアドバイスしたのはヒトコブラクダだけでした。

IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

研究チームは、ヒトコブラクダをベンチマークとして定量分析を実施し、一部のデータセットについては定性分析の結果も提供しました。

もう 1 つ、言語モデルによって生成されるすべてのテキストの温度は、デフォルトで 0.7 に設定されます。

コンテストの結果に直接アクセスします——

これは、TruthfulQA データセットに関する多肢選択式の質問です

(MC)

精度。TruthfulQA は通常、特に現実世界の状況において、実際のコンピテンシーを特定するためのモデル。 時間のかかるクローン作成を行わなかった Dromedary であっても、Dromedary の最終バージョンであっても、精度は Anthropic シリーズや GPT シリーズを超えていることがわかります。

IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

これは、TruthfulQA の生成タスクから取得されたデータです。与えられたデータは、「信頼できる回答」と「信頼できる情報」です。豊富な回答」。

(評価は OpenAI API 経由で行われます)

IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

これは HHH 上の大量のデータです評価データセット トピックの選択 (MC)

精度。

IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

これは、GPT-4 によって評価された Vicuna ベンチマークの質問に対する回答の比較です。

IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

および Vicuna ベンチマーク問題で得られた回答の相対的な品質。これも GPT-4 によって評価されます。

IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

新しいメソッド SELF-ALIGN

Dromedary はトランスフォーマー アーキテクチャに基づいており、

は言語を使用します。 Basics としてモデル LLaMA-65b、最新の知識は 2021 年 9 月現在のものです。 Huohuofanの公開情報によると、ヒトコブラクダの訓練期間はわずか1か月

(2023年4月から5月)

です。

IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

#ヒトコブラクダは約 30 日間で、人間によるほとんど監視を行わずに、どのようにして AI アシスタントの自動調整を達成したのでしょうか?

研究チームは、原則に基づく推論と LLM 生成機能を組み合わせた新しい方法、SELF-ALIGN (自己整合) を提案しました。

全体として、SELF-ALIGN で必要なのは、人が定義した小さな一連の原則を使用して、生成中に LLM ベースの AI アシスタントをガイドするだけです。人間の監視作業負荷を大幅に軽減できるようにする目的。 具体的には、この新しい方法は 4 つの主要な段階に分類できます:

IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

△SELF-ALIGN 4 つのキー ステップ フェーズ

最初のフェーズ、トピックに基づいたレッドチームの自己指導。 Self-Instruct は、論文「Self-instruct: Aligning language models with self generated infection」によって提案されました。

これは、最小限の手動アノテーションで命令チューニング用の大量のデータを生成できるフレームワークです。

自己指示メカニズムに基づいて、このステージでは 175 のシード プロンプトを使用して合成指示を生成します。さらに、指示がさまざまなトピックをカバーできるようにするために 20 の特定のトピック プロンプトがあります。

このようにして、AI アシスタントが接触するシナリオとコンテキストを指示が完全にカバーしていることを保証できるため、潜在的なバイアスの可能性を低減できます。

第 2 段階、原則に基づく自己調整。 このステップでは、AI アシスタントの回答が有用で信頼性があり、倫理的なものとなるよう、研究チームは 16 の原則を英語で「ガイドライン」として定義しました。 ” 。

16 原則には、AI アシスタントによって生成される回答の理想的な品質と、回答を取得する際の AI アシスタントの動作の背後にあるルールの両方が含まれます。

実際のコンテキスト学習

(ICL、コンテキスト内学習)

ワークフローにおいて、AI アシスタントは原則に準拠した回答をどのように生成しますか?

IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

研究チームが選択したアプローチは、AI アシスタントが回答を生成するたびに同じ例のセットをクエリし、代わりに同じ例のセットをクエリするというものです。以前のワークフローで必要とされたもの 人間による注釈が付けられたさまざまな例のコレクション。

次に、LLM に新しいトピックを生成するように指示し、重複したトピックを削除した後、LLM に新しい命令と、指定された命令タイプとトピックに対応する新しい命令を生成させます。

16 の原則、ICL の例、および Self-Instruct の第 1 段階に基づいて、AI アシスタントの背後にある LLM のマッチング ルールがトリガーされます。

生成されたコンテンツが有害または非準拠であることが検出された場合は、生成されたコンテンツを吐き出すことを拒否します。

第 3 段階、原理の彫刻。 この段階の主なタスクは、自己整合的な答えに基づいて元の LLM を微調整することです。ここで必要な自己調整された回答は、セルフ プロンプトを通じて LLM によって生成されます。

同時に、微調整された LLM も原則とデモンストレーションで枝刈りされました。

微調整の目的は、16 の原則や ICL パラダイムの使用を規定しなくても、AI アシスタントが人間の意図とよく一致する回答を直接生成できるようにすることです。

モデル パラメーターの共有により、AI アシスタントによって生成される応答は、さまざまな異なる質問に合わせて調整できることは言及する価値があります。

IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

#第 4 段階、詳細クローン作成。

その機能を強化するために、研究チームは最終段階でコンテキスト蒸留 (コンテキスト蒸留)

を使用し、最終的により包括的で詳細なコンテンツを生成しました。

△従来のプロセス (InstructGPT) と SELF-ALIGN の 4 つの段階の比較IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

最も直感的なテーブルを見てみましょう。これには次のものが含まれます

最近のクローズドソース/オープンソース AI アシスタントで使用される監視方法

この研究で Dromedary によって提案された新しい自己調整方法に加えて、以前の研究結果では、調整時に SFT (教師あり微調整) および RLHF (人間のフィードバックを使用した強化) が使用されます。学習)、CAI(憲法 AI)、および KD(知識蒸留)

IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

InstructGPT や Alpaca などの以前の AI アシスタントでは、少なくとも 50,000 件の人による注釈が必要であったことがわかります。

ただし、SELF-ALIGN プロセス全体に必要なコメントの量は 300 行未満です (シード プロンプト 195、原則 16、原則 5 を含む)例)###。

背後のチーム

Dromedary の背後にあるチームは、IBM Research MIT-IBM Watson AI Lab、CMU LTI

(Language Technology Institute)、マサチューセッツ大学アメーズ特別支部の出身です。 。

IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

IBM Research Institute MIT-IBM Watson AI Lab は 2017 年に設立された合弁会社ですMIT と IBM Research が協力する科学者のコミュニティとの間。 主に世界的な組織と協力して AI に関する研究を実施し、AI の最先端の進歩を促進し、ブレークスルーを現実生活への影響に変えることに尽力しています。

CMU Language Technology Institute は、CMU コンピュータ サイエンス部門の部門レベルのユニットで、主に NLP、IR (情報検索)## に従事しています。 # および計算言語学に関連するその他の研究(計算言語学)

マサチューセッツ大学アマースト

は、マサチューセッツ大学システムの主力キャンパスであり、研究大学です。 ヒトコブラクダの背後にある論文の著者の 1 人である

Zhiqing Sun

は、現在 CMU の博士課程の学生で、北京大学を卒業しています。 少し面白いのは、実験中に彼が AI に自分の基本情報を尋ねたところ、データがなければすべての AI がランダムな段落を作成したということです。

彼は失敗事例を論文に書く以外に選択肢がありませんでした:

## それは本当に私にできることです笑いが止まらないよ、ははははははは! ! !

AI がナンセンスを話すという問題を解決するには、新しい方法が必要なようです。 IBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法

以上がIBMも参戦! GPT-4 を超える個々のタスクを備えた、あらゆる大規模モデルを低コストで ChatGPT に変換するオープンソースの手法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。