検索
ホームページテクノロジー周辺機器AIChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

数日前、Meta の主任人工知能科学者、Yann LeCun の ChatGPT に関するコメントはすぐに業界全体に広がり、議論の波を引き起こしました。

Zoom のメディアと幹部の小規模な集まりで、LeCun 氏は驚くべきコメントをしました:「基盤となるテクノロジーに関する限り、ChatGPT はそれほど素晴らしいイノベーションではありません。」

"とはいえ世間では、これは革命的ですが、私たちはそれがよく組み立てられた製品であり、それ以上のものではないことを知っています。」

ChatGPT はイノベーションではありません

ChatGPT、過去数か月の「トップトレンド」チャットロボットとして、世界中で長く人気があり、一部の人々のキャリアや学校教育の現状を真に変えさえしました。

全世界がこれに驚いたとき、ChatGPT に対する LeCun のレビューは非常に「控えめな表現」でした。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

しかし実際のところ、彼の発言は不合理なものではありません。

多くの企業や研究機関は、ChatGPT のようなデータ駆動型人工知能システムを導入しています。 LeCun氏は、OpenAIはこの分野において特別なものではないと述べた。

「Google と Meta に加えて、スタートアップ企業が 6 社ありますが、基本的にはすべて非常に似た技術を持っています。」と LeCun 氏は付け加えました。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

その後、LeCun は少し機嫌が悪くなりました -

「ChatGPT は、自己教師ありの方法で事前トレーニングされた Transformer アーキテクチャを使用しています。 「教師あり学習は私が長年主張してきたことです。当時はまだ OpenAI は誕生していませんでした。」

その中で、Transformer は Google の発明です。この種の言語ニューラル ネットワークは、GPT-3 などの大規模言語モデルの基礎です。

最初のニューラル ネットワーク言語モデルは、20 年前に Yoshua Bengio によって提案されました。 Bengio のアテンション メカニズムは、後に Google によって Transformer で使用され、それ以来すべての言語モデルの重要な要素となっています。

さらに、ChatGPT は、同じく Google DeepMind Lab によって開発されたヒューマン フィードバック強化学習 (RLHF) テクノロジーを使用します。

LeCun 氏の見解では、ChatGPT は科学的な画期的な進歩というよりも、エンジニアリングの成功例にすぎません。

OpenAI のテクノロジーは「基礎科学の点では革新的ではありません。単にうまく設計されているだけです。」

「もちろん、そのことで彼らを批判するつもりはありません。」

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

私は OpenAI の取り組みやその主張を批判しているわけではありません。

一般の人々とメディアの見方を訂正したいのですが、彼らは一般に ChatGPT が革新的でユニークな技術的進歩であると信じていますが、そうではありません。

ニューヨーク・タイムズ記者ケイド・メッツとのシンポジウムで、ルカン氏はおせっかいな人たちの疑問を感じた。

「なぜ Google と Meta は同様のシステムを持たないのかと疑問に思われるかもしれません。私の答えは、Google と Meta がそのようなナンセンスなチャットボットを立ち上げたら、損失はかなり大きくなるだろう、ということです。」と彼は微笑みながら説明した。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

偶然にも、OpenAI がマイクロソフトやその他の投資家に支持され、その純資産が 290 億ドルに急上昇したというニュースが出るやいなや、マーカス氏も記事を書きました。を嘲笑するために一晩中彼のブログに投稿しました。

記事の中でマーカス氏は、「OpenAI には何ができて Google にはできないのか、そしてそれには 290 億米ドルという超高値を払う価値があるのか​​?」という金言を披露しました。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

Google、Meta、DeepMind、OpenAI PK!

早速、これらの AI 巨人のチャットボットを取り出して、データそのものを語ってみましょう。

LeCun 氏は、多くの企業や研究所が ChatGPT に似た AI チャットボットを導入していると述べましたが、これは事実です。

ChatGPT は、言語モデルに基づいた最初の AI チャットボットではなく、多くの「前身」があります。

OpenAI が登場する前は、Meta、Google、DeepMind などが、Meta の BlenderBot、Google の LaMDA、DeepMind の Sparrow などの独自のチャットボットをリリースしていました。

また、独自のオープンソース チャット ロボット計画を発表したチームもいくつかあります。たとえば、LAION の Open-Assistant です。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

Huggingface によるブログでは、数名の著者が RLHF、SFT、IFT、CoT (これらはすべて ChatGPT のキーワードです) のトピックに関する重要な論文を調査し、分類して要約しました。彼ら。

彼らは、BlenderBot、LaMDA、Sparrow、InstructGPT などの AI チャットボットを、パブリック アクセス、トレーニング データ、モデル アーキテクチャ、評価方向などの詳細に基づいて比較する表を作成しました。

注: ChatGPT は文書化されていないため、ChatGPT の基礎と考えられる OpenAI の命令微調整モデルである InstructGPT の詳細を使用しています。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

##LaMDABlenderBot 3Organizationクローズドパブリッククローズド限定的##1750億不明OPTチンチラGPT-3.52.81兆✔️#✔️高品質: 6.4KFalling特徴: 4K不明12.7K (ChatGPT はそれ以上の可能性があります) ✖️


##Sparrow

ChatGPT/ InstructGPT

Google

# Meta

#DeepMind

##OpenAI

##アクセス許可

#パラメータスケール

1370億

##700億

##1750億

##ベーシックモデル

#コーパスサイズ

#1000億

1.4 兆

#不明

##アクセス ネットワーク

✔️

✔️

##✖️

監督による微調整

✔️

##✔️

##✔️

##微調整されたデータスケール

セキュリティ: 8K

IR: 49K

18K から 1.2M までの範囲の 20 個の NLP データセット

RLHF

✖️

✔️

✔️

手動セキュリティ ルール

✖️

✖️# ##############################

トレーニング データ、基本モデル、微調整には多くの違いがありますが、これらのチャットボットにはすべて、指示に従うという 1 つの共通点があることを見つけるのは難しくありません。

たとえば、ChatGPT に指示による微調整に関する詩を書くように依頼できます。

ChatGPT は非常に「認知的」で、詩を書くときに LeCun と Hinton にお世辞を言うことを決して忘れないことがわかります。

それから彼は、「ナッジ、微調整、あなたは美しいダンスです。」と熱く賞賛しました。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

テキストの予測から指示に従うまで

通常、基本モデルの言語モデリングだけでは、モデルがユーザーの指示に従う方法を学習するには十分ではありません。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

モデルのトレーニングでは、研究者は古典的な NLP タスク (感情、テキスト分類、要約など) を使用するだけでなく、命令の微調整 (IFT) も使用します。 ). つまり、非常に多様なタスクに関するテキストの指示を通じて、基本モデルを微調整します。

これらの命令例は、命令、入力、出力という 3 つの主要な部分で構成されています。

入力はオプションです。上記の ChatGPT 例のオープン ビルドのように、一部のタスクでは指示のみが必要です。

入力と出力が現れると、例が形成されます。特定の命令に対して、複数の入力例と出力例が存在する可能性があります。たとえば、次の例:

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

#IFT データは通常、人間によって書かれた命令と、言語モデルによってガイドされた命令の例のコレクションです。

ブート プロセス中に、LM は少数ショット (小さなサンプル) 設定 (上記のとおり) を要求され、新しい命令、入力、出力を生成するように指示されます。

各ラウンドで、モデルは人間が書いたサンプルとモデルが生成したサンプルから選択するように求められます。

データセットの作成に対する人間とモデルの貢献量はスペクトルのようになります (下の図を参照)。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

一方の端は、不自然な命令など、純粋にモデルによって生成された IFT データ セットであり、もう一方の端は、スーパーナチュラルなどの、人工的に生成された多数の命令です。説明書。

その中間にあるのは、小規模だが高品質のシード データ セットを使用し、自己指導などのガイド付き作業を実行することです。

IFT 用のデータセットを整理するもう 1 つの方法は、さまざまなタスク (プロンプトを含む) で既存の高品質なクラウドソース NLP データセットを活用し、統一パターンまたはさまざまなテンプレートを使用してこれらを結合することです。データ セットは命令に変換されます。

この分野の作業には、T0、Natural 命令データセット、FLAN LM、OPT-IML が含まれます。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

#自然な命令データセットに関する関連論文: https://arxiv.org/abs/2104.08773

モデルの微調整

一方、OpenAI の InstructGPT、DeepMind の Sparrow、Anthropic の憲法 AI はすべて、人間の好みの注釈であるヒューマン フィードバック (RLHF) に基づく強化学習を使用します。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

RLHF では、一連のモデル応答が人間のフィードバックに基づいてランク付けされます (例: より人気のあるテキストの紹介文の選択など)。

次に、研究者らはこれらの注釈付き応答に基づいて嗜好モデルをトレーニングし、RL オプティマイザーにスカラー報酬を返しました。

最後に、強化学習を通じてチャットボットをトレーニングし、この嗜好モデルをシミュレートします。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

思考連鎖 (CoT) プロンプトは、チャットボットが出力を生成するために段階的に推論するように誘導するコマンド例の特殊なケースです。

CoT で微調整されたモデルは、人間による注釈を使用した段階的な推論のための命令のデータセットを使用します。

これが、有名なプロンプト「ステップバイステップで考えてみましょう」の由来です。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

次の例は、「スケーリング命令 - 微調整された言語モデル」から抜粋したものです。このうち、オレンジ色は命令、ピンク色は入力と出力、青色は CoT 推論を示します。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

論文では、CoT 微調整を使用したモデルは、常識、算術、記号推論を含むタスクでより優れたパフォーマンスを発揮すると指摘しています。

さらに、CoT 微調整は、特にモデルの破損 (「申し訳ありませんが、回答できません」) を避けるために、機密性の高いトピックに対して非常に効果的です (RLHF よりも優れている場合もあります)。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

指示に安全に従う

先ほど述べたように、指示に合わせて微調整された言語モデルは、常に有益で安全な応答を生成できるとは限りません。

たとえば、「申し訳ありませんが、わかりません」などの役に立たない答えを返したり、デリケートな話題を提起したユーザーに対して危険な応答を出力したりして逃げます。

この動作を改善するために、研究者は、教師あり微調整 (SFT) の形式を通じて、高品質の人間による注釈付きデータの基本言語モデルを微調整し、それによってモデルの有用性と無害性を向上させます。

ChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしています

SFT と IFT の関係は非常に密接です。 IFT は SFT のサブセットとして見ることができます。最近の文献では、SFT フェーズは、IFT 後に完了する特定の命令トピックではなく、セキュリティ トピックに使用されることがよくあります。

将来的には、その分類と説明に、より明確な使用例が含まれるはずです。

さらに、Google の LaMDA は、一連のルールに基づいたセキュリティ アノテーションを持つ、安全にアノテーションが付けられた会話データ セットにも基づいて微調整されています。

これらのルールは研究者によって事前に定義および開発されることが多く、危害、差別、誤った情報などを含む幅広いトピックをカバーしています。

AI チャットボットの次のステップ

AI チャットボットに関しては、次のような未解決の問題がまだ多くあります:

1. RL人間のフィードバックから学ぶことはどのくらい重要ですか?より高品質のデータトレーニングを使用して、IFT または SFT で RLHF のパフォーマンスを得ることができますか?

2. Sparrow の SFT RLHF のセキュリティは、LaMDA で SFT を使用する場合とどのように比較されますか?

3. すでに IFT、SFT、CoT、RLHF があることを考えると、さらにどの程度の事前トレーニングが必要でしょうか?トレードオフは何ですか?最良の基本モデル (パブリックとプライベートの両方) はどれですか?

4. これらのモデルは現在、研究者が特に故障モードを検索し、明らかになった問題に基づいて今後のトレーニング (ヒントや方法を含む) に影響を与えるように慎重に設計されています。これらの方法の効果を体系的に文書化し、再現するにはどうすればよいでしょうか?

要約すると、

1. トレーニング データと比較すると、命令の微調整に必要な部分はごくわずかです (数百桁)。

2. 教師あり微調整では人間による注釈を使用して、モデルの出力をより安全かつ有用なものにします。

3. CoT の微調整により、ステップバイステップの思考タスクにおけるモデルのパフォーマンスが向上し、モデルが機密問題を常に回避することがなくなります。

参考:

https://huggingface.co/blog/dialog-agents

以上がChatGPT は、Google、Meta、OpenAI 間のチャットボット競争に焦点を当て、LeCun の不満を話題の焦点にしていますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明
この記事は51CTO.COMで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。
LLMSでのツール呼び出しLLMSでのツール呼び出しApr 14, 2025 am 11:28 AM

大規模な言語モデル(LLM)は人気が急増しており、ツールコール機能は単純なテキスト生成を超えて機能を劇的に拡大しています。 これで、LLMSは動的なUI作成や自律的なaなどの複雑な自動化タスクを処理できます。

ADHDゲーム、ヘルスツール、AIチャットボットがグローバルヘルスを変える方法ADHDゲーム、ヘルスツール、AIチャットボットがグローバルヘルスを変える方法Apr 14, 2025 am 11:27 AM

ビデオゲームは不安を緩和したり、ADHDの子供を焦点を合わせたり、サポートしたりできますか? ヘルスケアの課題が世界的に急増しているため、特に若者の間では、イノベーターはありそうもないツールであるビデオゲームに目を向けています。現在、世界最大のエンターテイメントインダスの1つです

AIに関する国連入力:勝者、敗者、および機会AIに関する国連入力:勝者、敗者、および機会Apr 14, 2025 am 11:25 AM

「歴史は、技術の進歩が経済成長を促進する一方で、それ自体が公平な所得分布を確保したり、包括的な人間開発を促進したりしないことを示しています」とUNCTADの事務総長であるRebeca Grynspanは前文で書いています。

生成AIを介した交渉スキルを学ぶ生成AIを介した交渉スキルを学ぶApr 14, 2025 am 11:23 AM

簡単な、Generative AIを交渉の家庭教師およびスパーリングパートナーとして使用してください。 それについて話しましょう。 革新的なAIブレークスルーのこの分析は、最新のAIに関する私の進行中のフォーブス列のカバレッジの一部であり、特定と説明を含む

テッドは、Openai、Google、Metaが法廷に向かい、自分自身とセルフィーから明らかにしますテッドは、Openai、Google、Metaが法廷に向かい、自分自身とセルフィーから明らかにしますApr 14, 2025 am 11:22 AM

バンクーバーで開催されたTED2025会議は、昨日4月11日の第36版を締めくくりました。サム・アルトマン、エリック・シュミット、パーマー・ラッキーを含む60か国以上の80人の講演者が登場しました。テッドのテーマ「人類が再考された」は、仕立てられたものでした

ジョセフ・スティグリッツは、AI独占権の中で迫り来る不平等を警告しているジョセフ・スティグリッツは、AI独占権の中で迫り来る不平等を警告しているApr 14, 2025 am 11:21 AM

ジョセフ・スティグリッツは、2001年にノーベル経済賞を受賞した経済学者であり、2001年にノーベル経済賞を受賞しています。スティグリッツは、AIが既存の不平等を悪化させ、いくつかの支配的な企業の手に統合した力を悪化させ、最終的に経済を損なうと仮定しています。

グラフデータベースとは何ですか?グラフデータベースとは何ですか?Apr 14, 2025 am 11:19 AM

グラフデータベース:関係を通じてデータ管理に革命をもたらす データが拡大し、その特性がさまざまなフィールドで進化するにつれて、グラフデータベースは、相互接続されたデータを管理するための変換ソリューションとして浮上しています。伝統とは異なり

LLMルーティング:戦略、テクニック、およびPythonの実装LLMルーティング:戦略、テクニック、およびPythonの実装Apr 14, 2025 am 11:14 AM

大規模な言語モデル(LLM)ルーティング:インテリジェントタスク分布によるパフォーマンスの最適 LLMSの急速に進化する風景は、それぞれが独自の長所と短所を備えた多様なモデルを提供します。 創造的なコンテンツGenに優れている人もいます

See all articles

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

VSCode Windows 64 ビットのダウンロード

VSCode Windows 64 ビットのダウンロード

Microsoft によって発売された無料で強力な IDE エディター

Dreamweaver Mac版

Dreamweaver Mac版

ビジュアル Web 開発ツール

MinGW - Minimalist GNU for Windows

MinGW - Minimalist GNU for Windows

このプロジェクトは osdn.net/projects/mingw に移行中です。引き続きそこでフォローしていただけます。 MinGW: GNU Compiler Collection (GCC) のネイティブ Windows ポートであり、ネイティブ Windows アプリケーションを構築するための自由に配布可能なインポート ライブラリとヘッダー ファイルであり、C99 機能をサポートする MSVC ランタイムの拡張機能が含まれています。すべての MinGW ソフトウェアは 64 ビット Windows プラットフォームで実行できます。

SAP NetWeaver Server Adapter for Eclipse

SAP NetWeaver Server Adapter for Eclipse

Eclipse を SAP NetWeaver アプリケーション サーバーと統合します。