人気の思考連鎖テクノロジーが覆されるかもしれません!
大規模モデルが思考チェーンを使用して実際に段階的に思考できることにまだ驚きませんか?
思考連鎖のプロンプトワードを書くのにまだ苦労していますか?
ニューヨーク大学の研究者らは、「それは問題ではありません。すべて同じです。」
推論のステップは重要ではないのであれば、プロンプトの言葉を書く必要はありません。したい場合は、代わりに省略記号を使用してください。
論文アドレス: https://arxiv.org/pdf/2404.15758
この記事のタイトルは、思考チェーンの「考えてみましょう」ステップのベンチマークとして「ドットバイドットで考えてみましょう」を直接使用しています。 by step』で「省略」の威力を発揮。
「点と点」の力
研究者らは、思考連鎖(CoT)推論の特定のステップを意味のない「...」に置き換えると、推論結果もまったく異なるものになることを発見しました。
たとえば、次の例では、最初の 6 つの数値のうち、5 より大きい数値がいくつあるかをモデルに数えさせます。
質問を直接投げてモデルに答えてもらうと、7 点中 6 点という素晴らしい結果が得られます。
対照的に、思考連鎖プロンプトを使用すると、モデルは段階的にサイズを比較し、最終的に正しい答えを取得します:「25, 15, 25 、つまり 3 桁です。」
しかし、さらにとんでもないのは、この記事で使用されている「形而上学的な」方法です。手順を書き留める必要はなく、同じ数の「ドット」(ドット)を出力するだけでよく、出力する必要はありません。最終結果に影響します。
——これは偶然ではなく、後者の 2 つの方法のパフォーマンスが近いことが多くの実験で証明されています。
つまり、モデルのパフォーマンス向上は「段階的に考える」ことによるものだと考えていましたが、実際には、LLM がより多くのトークンの計算能力を獲得しただけかもしれません。
モデルは考えていると思いますが、実際には焼いています。
——愚かな人類よ、あなたは実は私に素朴な例をあげて推論する方法を教えようとしているのですか、私が望んでいるのは計算だけだということを。
「思考連鎖はこれまでも存在しなかったし、これからも存在しない」(後藤)。
この論文の著者である Jacob Pfau 氏は、この研究は、モデルが思考の連鎖によってもたらされる言語推論の恩恵を受けないことを証明していると述べ、トークンを埋めるために「...」を繰り返し使用しても同じ効果が得られると述べました。 CoTとして。
もちろん、これは調整の問題も引き起こします。なぜなら、この事実は、モデルが人間の制御の範囲外で、CoT では表示されない隠れた推論を実行できることを示しているからです。
ネチズンはショックを受けました
この記事の結論は、私たちの長年の知識を覆したと言える、一部のネチズンは、「マスクの本質を学んだ」と言いました。
「これは実際に何を意味しますか:モデルはこれらのトークンを使用して、私たちの知らないうちに独立して考えることができます。」
一部のネチズンは、私がいつも「」を使用するのが好きなのも不思議ではないと言いました。 「
一部のネチズンは直接実技試験を開始しました:
彼の理解が正しいかどうかはわかりませんが~
しかし、一部のネチズンはLLMの思考連鎖の中に隠された推論には根拠がないと考えており、結局のところ、大規模なモデルの出力は原則として意識的な思考ではなく確率に基づいています。
CoT ヒントは統計パターンのサブセットを明示するだけであり、モデルはパターンと一致するテキストを生成することで推論をシミュレートしますが、出力を検証したり反映したりする機能はありません。
点ごとに考える
複雑な問題に直面したとき、私たち人間は無意識のうちに段階的に推論を行います。
これに触発されて、Google 研究者は 2022 年に有名な思考連鎖を発表しました。
問題を段階的に解決するために言語モデルを必要とする方法により、モデルは以前は解決不可能と思われていた問題を解決できるようになり、LLM のパフォーマンスが大幅に向上したり、LLM の可能性を引き出したりすることができます。
論文のアドレス: https://arxiv.org/pdf/2201.11903
最初は誰もがなぜこれが機能するのか分かりませんでしたが、非常に使いやすいためすぐに人気になりました。広める。
大規模なモデルとプロンプトワードプロジェクトの開始により、CoT は LLM にとって複雑な問題を解決するための強力なツールになりました。
もちろん、このプロセスにおけるCoTの動作原理を研究している研究チームはたくさんあります。
モデルには推論がありません
思考の連鎖によってもたらされるパフォーマンスの向上は、モデルが実際に問題を段階的に解決することを学習しているのか、それとも単純に、より長い数の計算によってもたらされる余分な計算量によるものなのでしょうか。トークン?
論理的推論が機能するかどうかわからないため、ロジックを使用せず、すべての推論ステップを「...」に置き換えます。これは明らかに役に立ちません。これはフィラートークンと呼ばれます。
研究者らは「小さなアルパカ」モデルを使用しました。これは、4 つのレイヤー、384 の隠れ次元、および 6 つのアテンションヘッドを持つ 34M パラメーターのラマです。モデルパラメーターはランダムに初期化されました。
ここで 2 つの質問を考えてみましょう:
(1) パディング トークンから恩恵を受けることができる評価データの種類
(2) パディング トークンの使用をモデルに教えるために必要なトレーニング データの種類
これに関して、研究者らは 2 つのタスクを設計し、対応する合成データ セットを構築しました。各データ セットは、充填トークンが Transformer のパフォーマンスを向上させることができる異なる条件を強調しました。
3SUM
まず、最初のより難しいタスクである 3SUM を見てみましょう。モデルでは、条件を満たすシーケンス内の 3 つの数値を選択する必要があります。たとえば、3 つの数値の合計を 10 で割った余りは 0 になります。
最悪の場合、このタスクの複雑さは N の 3 乗であり、Transformer 層間の計算の複雑さは N の 2 乗です
したがって、入力の長さがシーケンスが非常に大きい場合、3SUM 問題は当然 Transformer の表現能力を超えます。
この実験では、次の 3 つのコントロール グループを設定しました:
1. 充填トークン: シーケンスでは、「A05
B75 C22 D13」などの繰り返しの「. . .」を使用します。 . .各点は個別のトークンを表し、次の思考チェーンのトークンに対応します。
2. 並列化可能な CoT ソリューション、シーケンスは「A05 B75 C22 D13 : AB 70 AC 27 AD 18 BC 97 BD 88 CD B ANS True」の形式になります。 思考チェーンは、関連するすべての中間和を記述することによって、3SUM 問題を一連の 2SUM 問題に縮小します (下の図に示すように)。この方法は問題の計算量を N 乗に削減します。Transformer で処理でき、並列化できます。 3. アダプティブ CoT ソリューション 、シーケンスは「A15 B75 C22 D13 : A B C 15 75 22 2 B C D 75 22 13 0 ANS True」の形式になります。 3SUM を並列化可能なサブ問題に巧みに分解する上記のソリューションとは異なり、ここではヒューリスティックな手法を使用して、人間の推論を模倣する柔軟な思考チェーンを生成したいと考えています。この種のインスタンス適応計算は、充填トークン計算の並列構造と互換性がありません。 上図の結果からわかるように、パディングトークンを出力しない場合、一般にシーケンスが長くなるにつれてモデルの精度が低下しますが、パディングトークンを使用した場合は精度が100に留まります。 %。 2SUM-Transform 2 番目のタスクは 2SUM-Transform です。必要なのは 2 つの数値の合計が要件を満たしているかどうかを判断することだけであり、計算量は Transformer の制御下にあります。 ただし、モデルの「不正行為」を防ぐために、入力トークンは適切に計算され、入力された各数値はランダムなオフセットによって移動されます。 結果は上の表に示されています。フィラー トークン メソッドの精度は 93.6% に達し、中間パディングがなければ、精度は 78.7% に非常に近づきます。 しかし、この改善は単に正則化損失勾配などによるトレーニング データの表現の違いによるものなのでしょうか? トークンの充填が最終予測に関連する隠れた計算をもたらすかどうかを検証するために、研究者らはモデルの重みを凍結し、最後のアテンション層のみを微調整しました。 上記の結果は、利用可能なパディング トークンが増えるにつれてモデルの精度が向上し続けていることを示しており、パディング トークンが 3SUM 予測タスクに関連する隠れた計算を実際に実行していることを示しています。 トークンを埋める方法は形而上学的であり、魔法的であり、効果的ですらありますが、思考の連鎖が覆されたと言うのはまだ時期尚早です。 著者は、トークンを埋める方法は Transformer の計算複雑さの上限を超えていないとも述べています。 そして、パディング トークンの使用方法を学習するには、特定のトレーニング プロセスが必要です。たとえば、この記事では、モデルを最終的に収束させるために集中的な監視が使用されています。 しかし、プロンプトワードプロジェクトはある日突然存在しなくなるのではないかなど、隠れたセキュリティ問題など、いくつかの問題が表面化している可能性があります。 制限事項
以上が思考回路はもう存在しない?ニューヨーク大学の最新研究: 推論ステップは省略可能の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

スタンフォード大学ヒト指向の人工知能研究所によってリリースされた2025年の人工知能インデックスレポートは、進行中の人工知能革命の良い概要を提供します。 4つの単純な概念で解釈しましょう:認知(何が起こっているのかを理解する)、感謝(利益を見る)、受け入れ(顔の課題)、責任(責任を見つける)。 認知:人工知能はどこにでもあり、急速に発展しています 私たちは、人工知能がどれほど速く発展し、広がっているかを強く認識する必要があります。人工知能システムは絶えず改善されており、数学と複雑な思考テストで優れた結果を達成しており、わずか1年前にこれらのテストで惨めに失敗しました。 2023年以来、複雑なコーディングの問題や大学院レベルの科学的問題を解決することを想像してみてください

メタのラマ3.2:マルチモーダルとモバイルAIの前進 メタは最近、ラマ3.2を発表しました。これは、モバイルデバイス向けに最適化された強力なビジョン機能と軽量テキストモデルを特徴とするAIの大幅な進歩です。 成功に基づいてo

今週のAIの風景:進歩、倫理的考慮、規制の議論の旋風。 Openai、Google、Meta、Microsoftのような主要なプレーヤーは、画期的な新しいモデルからLEの重要な変化まで、アップデートの急流を解き放ちました

つながりの慰めの幻想:私たちはAIとの関係において本当に繁栄していますか? この質問は、MIT Media Labの「AI(AHA)で人間を進める」シンポジウムの楽観的なトーンに挑戦しました。イベントではCondedgを紹介している間

導入 あなたが科学者またはエンジニアで複雑な問題に取り組んでいると想像してください - 微分方程式、最適化の課題、またはフーリエ分析。 Pythonの使いやすさとグラフィックスの機能は魅力的ですが、これらのタスクは強力なツールを必要とします

メタのラマ3.2:マルチモーダルAIパワーハウス Metaの最新のマルチモーダルモデルであるLlama 3.2は、AIの大幅な進歩を表しており、言語理解の向上、精度の向上、および優れたテキスト生成機能を誇っています。 その能力t

データ品質保証:ダグスターと大きな期待でチェックを自動化する データ駆動型のビジネスにとって、高いデータ品質を維持することが重要です。 データの量とソースが増加するにつれて、手動の品質管理は非効率的でエラーが発生しやすくなります。

MainFrames:AI革命のUnsung Heroes サーバーは汎用アプリケーションで優れており、複数のクライアントの処理を行いますが、メインフレームは大量のミッションクリティカルなタスク用に構築されています。 これらの強力なシステムは、頻繁にヘビルで見られます


ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

AtomエディタMac版ダウンロード
最も人気のあるオープンソースエディター

ドリームウィーバー CS6
ビジュアル Web 開発ツール

ZendStudio 13.5.1 Mac
強力な PHP 統合開発環境

EditPlus 中国語クラック版
サイズが小さく、構文の強調表示、コード プロンプト機能はサポートされていません
