ホームページ >テクノロジー周辺機器 >AI >なんという騒音でしょう! ChatGPT は言語を理解できますか? PNAS:まず「理解」とは何かを勉強しましょう
#機械がこの質問について考えることができるかどうかは、潜水艦が泳げるかどうかを尋ねるようなものです。 ——Dijkstra
ChatGPT がリリースされるずっと前から、業界は大規模モデルによってもたらされる変化の匂いをすでに感じていました。 昨年 10 月 14 日、サンタフェ研究所のメラニー・ミッチェル教授とデビッド・C・クラカウアー教授は、arXiv 上で大規模な事前研究が行われるかどうかに関する議論を包括的に調査したレビューを発表しました。訓練された言語モデルは言語を理解できるため、この記事では賛成派と反対派の議論、およびこれらの議論から導き出される広範な知能科学における重要な問題について説明しています。
大規模な事前トレーニング モデルは、基礎モデルとも呼ばれ、数十億から数兆のパラメータ (重み) を持つディープ ニューラル ネットワークであり、大規模な自然言語コーパス (オンライン テキスト、オンライン ブックなどを含む) で使用されます。 「事前トレーニング」を実行した後。
トレーニング中のモデルのタスクは、入力文の欠落部分を予測することであるため、この方法は「自己教師あり学習」とも呼ばれ、結果として得られるネットワークは複雑になります。統計モデル を使用すると、トレーニング データ内の単語やフレーズが互いにどのように関連しているかを取得できます。
このモデルは、自然言語を生成するために使用でき、特定の自然言語タスクに合わせて微調整したり、「ユーザーの意図」によりよく一致するようにさらにトレーニングしたりできますが、専門家以外の人にとっては言語がどのように正確であるかモデルがこれらのタスクを達成できるかどうかは、科学者にとって謎のままです。
ニューラル ネットワークの内部動作はほとんど不透明であり、ニューラル ネットワークを構築する研究者でさえ、この規模のシステムに対する直感には限界があります。
##あるしきい値を超えると、まるで宇宙人が突然現れて、恐ろしいほど人間的な方法で私たちとコミュニケーションをとることができるようです。現時点で明らかなことが 1 つだけあります。大きな言語モデルは人間ではなく、その行動のいくつかの側面は知性があるように見えますが、もし人間の知性ではないとしたら、その知性の性質は何でしょうか?
#大規模な言語モデルのパフォーマンスは衝撃的ですが、最先端の LLM は脆弱性や人的ミス以外のミスが依然として発生しやすいです。 ただし、パラメータの数とトレーニング コーパスのサイズが拡大することで、ネットワークのパフォーマンスが大幅に向上していることがわかり、この分野の一部の研究者もこれによって導かれています。十分な大きさのネットワークとトレーニング データセット、言語モデル (マルチモーダル バージョン)、そしておそらくマルチモーダル バージョンが存在する限り、人間レベルの知性と理解につながると主張することはできません。 人工知能の新しいスローガンが登場しました: 必要なのはスケールだけです! この声明は、人工知能研究コミュニティにおける大規模な言語モデルに関する議論も反映しています: あるグループは、言語モデルが真に理解できると信じています。言語 を習得しており、一般的な方法で推論することができます(ただし、まだ人間のレベルには達していません)。 たとえば、Google の LaMDA システムはテキストで事前トレーニングされ、その後会話タスクで微調整されるため、非常に幅広いドメインのユーザーと会話できるようになります。理解陣営を支持する VS 理解陣営に反対する
もう一方の学派は、GPT-3 や LaMDA などの大規模な事前トレーニング済みモデルは、言語出力がどれほど流暢であっても、これらのモデルには実践的な経験がなく、世界のメンタルモデルがないため、理解することはできません。
「LLM の理解」議論の双方がそれぞれの見解を裏付ける十分な直観を持っていますが、現在利用可能な認知科学に基づいた理解に関する洞察があります。 LLM に関するこのような質問に答えます。
実際、一部の研究者は心理テスト (もともと人間の理解と推論メカニズムを評価するために設計された) を LLM に適用し、場合によっては、LLM が実際に理論的に人間のように思考していることを発見しました。テストの反応や推論評価における人間のような能力とバイアス。
これらのテストは人間の汎化能力を評価するための信頼できる手段と考えられていますが、人工知能システムの場合はそうではない可能性があります。
大規模な言語モデルには、トレーニング データと入力内のトークンの間の相関関係を学習する特別な機能があり、この相関関係を使用して問題を解決できます。これとは対照的に、人間は、次のような凝縮された概念を使用します。彼らの実世界での経験。
人間向けに設計されたテストを LLM に適用する場合、結果の解釈は、これらのモデルには当てはまらない可能性のある人間の認知に関する仮定に依存する可能性があります。
進歩するには、科学者は、私たちが作り出した新しい形の「奇妙な」知能を含む、さまざまな種類の知能と理解のメカニズムを理解するための新しいベンチマークと検出方法を開発する必要があります。 、心のような存在」、そしていくつかの関連作業がすでに行われています。
モデルが大きくなり、より高機能なシステムが開発されるにつれて、LLM の理解をめぐる議論は、「理解」が意味のあるものになるように、「知能の科学を拡張する」必要性を浮き彫りにしています。人間にとっても機械にとっても。
神経科学者のテレンス・セジノウスキー氏は、LLMの知能に関する専門家のさまざまな意見は、自然知能に基づく古い考え方では十分ではないことを示していると指摘しています。
LLM と関連モデルが、前例のない規模で統計的相関を利用することで成功することができれば、おそらくそれらは、並外れた形式の超人的予測を達成できる「新しい理解の形式」とみなされる可能性があります。 DeepMind の AlphaZero および AlphaFold システムなどの機能は、それぞれチェスとタンパク質構造予測の分野に「エキゾチックな」形式の直観をもたらします。
したがって、近年、人工知能の分野では、とらえどころのない目標を追求する中で、新しい理解モード、おそらくまったく新しい概念を備えたマシンが作成されてきたと言えます。本質的な側面で進歩が見られるにつれて、これらの新しい概念はさらに充実していくでしょう。
広範なコーディング知識を必要とし、高いパフォーマンス要件を必要とする問題では、引き続き大規模な統計モデルの開発が促進される一方、限られた知識と強力な因果メカニズムを持つ問題では、理解が容易になります。人間の知性。
将来の課題は、さまざまな形の知能の詳細な理解を明らかにし、その長所と限界を識別し、これらの真に異なる認知モデルを統合する方法を学ぶための新しい科学的手法を開発することです。 。
参考文献:
https://www.pnas.org/doi/10.1073/pnas.2215907120
以上がなんという騒音でしょう! ChatGPT は言語を理解できますか? PNAS:まず「理解」とは何かを勉強しましょうの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。