ホームページ > 記事 > テクノロジー周辺機器 > 一般的な人工知能、人工知能の知覚、および大規模言語モデル
おそらく、人工知能システムの最近のパフォーマンスがますます驚くべきものになっていることに気づいていないかもしれません。
たとえば、OpenAI の新しいモデル DALL-E 2 は、単純なテキスト プロンプトに基づいて魅力的なオリジナル画像を生成できます。 DALL-E のようなモデルは、人工知能が創造的である可能性があるという概念を否定することを難しくします。たとえば、「スタジオでヒット シングルを録音するデニム ジャケットを着たヒップホップ牛」に対する DALL-E の想像力豊かな解釈を考えてみましょう。または、より抽象的な例については、Peter Thiel の古いセリフ「私たちは 140 文字ではなく、空飛ぶ車が欲しいのです。」に関する DALL-E の説明をチェックしてください。
一方、DeepMind は最近、Gato の新しいモデルと呼ばれる新しいテクノロジーを発表しました。ビデオゲームのプレイから会話、ロボットアームによる現実世界のブロックの積み上げまで、何百もの異なるタスクを単独で実行できます。以前のほとんどすべての AI モデルは、チェスなど、1 つのことしか実行できませんでした。そのため、Gato は、より広範でより柔軟なマシン インテリジェンスに向けた重要な一歩を表します。
そして、OpenAI の GPT-3 から Google の PaLM、Facebook の OPT に至るまで、今日の大規模言語モデル (LLM) は、目まぐるしいほどの言語機能を備えています。彼らは、ほぼすべてのトピックについて、微妙なニュアンスの深い会話をすることができます。ビジネスメモから詩まで、印象的なオリジナルのコンテンツを自分で生成できます。最近の例を 1 つだけ挙げると、GPT-3 は最近、それ自体についてよく書かれた学術論文を執筆し、現在、権威ある科学雑誌への掲載に向けて査読を受けています。
これらの進歩は、人工知能コミュニティで技術開発の方向性について大胆な推測と白熱した議論を引き起こしました。
一部の信頼できる AI 研究者の中には、現在、私たちは「汎用人工知能」(AGI) に非常に近づいていると信じている人もいます。AGI とは、認知タスクにおいて人間を上回るパフォーマンスを発揮できる強力で柔軟な人工知能を指す、よく議論されるベンチマークです。先月、Blake Lemoine という名前の Google エンジニアが、Google の大規模言語モデルである LaMDA には知覚力があると劇的に主張して話題になりました。
このような主張に対する抵抗も同様に強く、多くの AI 評論家がその可能性を真っ向から否定しています。
それでは、人工知能における最近の驚くべき進歩について、私たちは何を考えるべきでしょうか?人工知能や人工知能の知覚などの概念についてどのように考えるべきでしょうか?
これらのトピックに関する公の議論は、いくつかの重要な方法で再構築される必要があります。超インテリジェントな AI がもうすぐそこまで来ていると信じている過度に興奮している愛好家と、AI の最近の発展は単なる誇大広告であると信じている否定的な懐疑論者はどちらも、現代の AI のいくつかの基本的な側面についての考え方が的外れです。
人工知能に関する基本原則は見落とされがちですが、人工知能は人間の知能とは根本的に異なるということです。
人工知能を人間の知能と直接比較しすぎるのは間違いです。今日の人工知能は、単なる人間の知能の「あまり進化していない」形態ではありません。明日の超高度な AI は、単なる人間の知能のより強力なバージョンではありません。
多くの異なるインテリジェンス モードと次元が可能です。人工知能は、人間の知能を不完全に模倣したものではなく、その輪郭や能力が根本的な点で私たちとは異なる、ユニークで異質な知能の形であると考えるのが最も適切です。
これをより具体的にするために、今日の人工知能の状態について簡単に考えてみましょう。今日の人工知能は、一部の分野では人間の能力をはるかに上回っていますが、他の分野では大きく遅れています。
例: 半世紀にわたり、「タンパク質の折り畳み問題」は生物学の分野における大きな課題でした。つまり、タンパク質の折り畳み問題では、一次元のアミノ酸配列に基づいてタンパク質の三次元形状を予測する必要があります。何十年も何世代にもわたって、世界で最も優秀な頭脳が協力してこの課題を解決できませんでした。 2007年にある評論家は、これを「現代科学における最も重要だが未解決の問題の1つ」と評した。
2020 年末、AlphaFold と呼ばれる DeepMind の AI モデルが、タンパク質のフォールディング問題に対する解決策を提供しました。タンパク質の研究に長年携わってきたジョン・モルト氏は、「重大な科学的問題が AI によって解決されたのは歴史上初めてです。」
タンパク質の折り畳みの謎を解くには、空間理解と高次元の推論は人間の思考の理解を超えています。しかし、それは現代の機械学習システムの理解を超えるものではありません。
一方、健康な人間の子供は誰でも、世界で最も洗練された人工知能をはるかに超える「身体化された知能」を持っています。
人間は幼い頃から、キャッチボールをしたり、見知らぬ地形を歩いたり、軽食を求めてキッチンの冷蔵庫を開けたりするなどのことを簡単に行うことができます。これらの身体能力は人工知能が習得するのが難しいことがわかっています。
これは「モラヴェックのパラドックス」に要約されています。 AI 研究者のハンス・モラベックは 1980 年代に次のように述べています。「コンピューターに知能テストで成人レベルのパフォーマンスをさせたり、チェスをさせたりするのは比較的簡単ですが、コンピューターに成人レベルのパフォーマンスをさせるのは困難または不可能です。」 1 歳児。知覚と運動性。」
この直感的ではない事実に対するモラベックの説明は進化論的です: 「人間の脳の大きく高度に進化した感覚部分と運動部分に 10 億年以上かけてコード化されている」 [一方で]私たちが高度な推論と呼んでいる思慮深いプロセスは、人間の心の最も薄い層であり、それが機能するのは、それがこれに支えられているからです。 」基本的な身体能力。ほんの数週間前、DeepMind の研究チームは新しい論文で「現在の AI システムの『直感的な物理学』の理解は、非常に幼い子供たちの理解に比べれば見劣りします。」
結果は何ですか?このすべて?
一般的な人工知能などというものは存在しません。
AGIは不可能でもありません。むしろ概念として支離滅裂です。
知性は、明確に定義された一般化可能な単一の能力ではなく、さらには特定の能力のセットでもありません。最も高いレベルでは、インテリジェントな行動は、単にエージェントがその環境に関する知識を取得して使用して、その目標を追求することです。エージェント、環境、目標には多数 (理論的には無限) の異なるタイプが存在するため、インテリジェンスは無数の異なる方法で現れる可能性があります。
AI の第一人者である Yann LeCun は、「一般的な人工知能などというものは存在しません...人間ですら専門化されています。」
「一般的な」人工知能と「真の」人工知能を変換するAI を人間ができること (しかしそれ以上のこと) ができるものとして定義すること (人間の知能を一般的な知能であると考えること) は近視眼的で人間中心です。人間の知能を人工知能開発の究極のアンカーおよび標準と見なす場合、機械知能が持つ可能性のある、強力で奥深く、予期せぬ、社会的に有益で、完全に人間ではない能力をすべて見逃してしまいます。
地球の大気の組成を原子レベルで理解し、システム全体が時間の経過とともにどのように進化するかを非常に高い精度で動的に予測できる AI を想像してみてください。大気中の特定の場所に特定の化合物を一定量堆積させることで、人類の継続的な炭素排出によって引き起こされる温室効果を打ち消し、地球規模の変化を緩和する、正確で安全な地球工学的介入を設計できるかどうかを想像してみてください。地球の表面。
人体のあらゆる生物学的および化学的メカニズムを分子レベルまで理解できる人工知能を想像してみてください。このようにして、各人の健康状態を最適化するために調整された食事を処方でき、あらゆる病気の根本原因を正確に診断でき、深刻な病気を治療するための新しい個人化された治療法を (まだ存在していなかったとしても) 生み出すことができるとしたら、想像してみてください。
AI が、消費するエネルギーよりも多くのエネルギーを安全に生成する方法で原子核を融合するプロトコルを発明し、安価で持続可能で無限に豊富な人類のエネルギーとして核融合を可能にすることを想像してみてください。
これらすべてのシナリオは今日でも空想であり、今日の人工知能には手が届きません。重要なのは、AI の真の可能性は、人間ができることとはまったく異なる新しい形式の知能の開発につながる道筋にあるということです。 AI がそのような目標を達成できるとしたら、それが人間の能力と全体的に一致するという意味で「普遍的」であるかどうかを誰が気にするでしょうか。
自分たちを「汎用人工知能」として位置づけることは、テクノロジーの可能性を制限し、低下させます。そして、人間の知性は存在しない一般的な知性ではないため、そもそも概念的に一貫性がありません。
人工知能になるとはどのようなものですか?
Google エンジニアの Blake Lemoine 氏は先月、Google の大規模な言語モデルの 1 つが認識されていると公に主張し、論争と論評の波を巻き起こしました。 (明確な意見を形成する前に、Lemoine と AI の間の議論の全文を自分で読んでみる価値があります。)
ほとんどの人、特に AI 専門家は、Lemoine の主張は間違っていて不正確であり、合理的であると考えています。
Googleは公式回答の中で次のように述べた:「私たちのチームはブラック氏の懸念を検討し、証拠は彼の主張を裏付けていないことを彼に伝えた。」 スタンフォード大学のエリック・ブリニョルフソン教授は、感覚型人工知能の実現にはまだ50年かかるかもしれないと考えている。ゲイリー・マーカスもこれに同調し、ルモワンさんの主張を「ナンセンス」と呼び、「ここには見るべきものは何もない」と結論づけた。
この議論全体の問題は、専門家による却下も含めて、認識の有無は定義上、証明不可能、反証不可能、そして認識不可能であるということです。
私たちが知覚について話すとき、それはエージェントの主観的な内部経験のことを指しており、外部の知的発現のことではありません。ブレイク・ルモインでも、エリック・ブリニョルフソンでも、ゲイリー・マーカスでも、非常に複雑な人工ニューラルネットワークが内部で何を体験するのか、あるいは体験しないのかを完全に確信できる人は誰もいません。
1974年、哲学者のトーマス・ネーゲルは「コウモリであることはどのような感じですか?」というタイトルの記事を発表しました。 "記事。 20 世紀で最も影響力のある哲学論文の 1 つであるこの論文は、悪名高くとらえどころのない意識の概念を、シンプルで直観的な定義に要約しました。つまり、エージェントは、そのエージェントになりたいと思うものが存在する場合に意識があるのです。たとえば、私の隣人であること、あるいは彼の犬であることは特別なことですが、彼の郵便ポストになることはそれとは似ていません。
この論文の重要なメッセージは、別の生物や種であることがどのようなものであるかを意味のある方法で正確に知ることは不可能であるということです。他の生物や種が私たちと似ていないほど、その内部経験はアクセスできなくなります。
ネーゲルはこの点を説明するためにコウモリを例に挙げました。彼がコウモリを選んだ理由は、コウモリは哺乳類としては非常に複雑な生き物だが、コウモリの人生経験は私たちの経験とは大きく異なるからだ。コウモリは空を飛び、世界を認識する主な手段としてソナーを使うなどである。
ネーゲルは次のように述べています (論文からいくつかの段落を全文引用する価値があります):
「私たち自身の経験は私たちの想像力の基礎となる素材であり、したがって想像力の範囲は限られています」夕暮れや夜明けに飛び回ることができる水かきのある腕を持ち、口の中に虫がいるが役に立たない人、視力が非常に悪く、反射された高周波音のシステムを通して周囲の世界を認識している人を想像してください。合図;その男は一日中屋根裏部屋で逆さまにぶら下がっている。コウモリ。しかし、問題はそこではありません。コウモリがコウモリであるってどんな感じなんだろう。しかし、これを想像しようとすると、私自身の心のリソースが限られてしまい、そのタスクには不十分です。私の現在の経験に足し算を想像したり、そこから徐々に減算された断片を想像したり、足し算、引き算、修正の組み合わせを想像したりすることによっては、それを達成することはできません。 「
人工ニューラル ネットワークは、少なくとも哺乳類や炭素ベースの生命体であるコウモリよりも、私たち人間にとって異質で近づきがたいものです。
同様に、あまりにも多くのコメント投稿者が、根本的な間違いを犯しています。」このトピックは (多くの場合、考えもせずに) 人間の知覚や知能に対する期待を人工知能に単純にマッピングできると仮定することです。AI の本質的なエクスペリエンスを決定したり、それについて考える方法さえあります。私たちは単純に確信が持てません。
それでは、生産的な方法で AI の認識というテーマにアプローチするにはどうすればよいでしょうか?
まずはチューリングから始めましょう ( アラン チューリングは、1950 年に初めて提案されたチューリング テストに触発されました。批判されたり誤解されたりすることがよくありますが、確かに不完全ではありますが、チューリング テストは、機械知能の性質に関する特定の基本的な洞察を捉えているため、AI 分野の基準点として時の試練に耐えてきました。私たちは、人工知能の内部経験に直接アクセスすることは決してできません。その全体的な前提は、人工知能の知能を測定したい場合、唯一の選択肢は、その動作を観察し、適切な推論を引き出すことであるということです。(明確にするために、チューリングは、必ずしも感じる能力ではなく、機械の思考能力を評価することに関心を持っていました。しかし、私たちの目的にとって、言い換えれば、重要なのは基礎です。)
ダグラス ホフスタッターは、この考えを特に雄弁に述べています。私があなたと話しているとき、あなたが話していることと同じようなことが私の中で起こっていることをどうやって知るのですか?チューリング テストは、物理学における粒子加速器のような素晴らしいプローブです。物理学と同じように、原子または亜原子レベルで何が起こっているのかを理解したい場合は、直接見ることができないため、関連するターゲットから加速粒子を散乱させ、その挙動を観察します。これから、ターゲットの内部プロパティを推測できます。チューリング テストは、この考えを心に拡張します。それは、アイデアを直接目には見えないが、その構造がより抽象的に推測できる「オブジェクト」として扱います。ターゲットの心から問題を「そらす」ことで、物理学と同じように、その内部の仕組みを理解することができます。 「
人工知能の知覚に関する議論を前進させるには、内部経験の代用として観察可能な表現を目指す必要があります。そうでないと、緩やかで空虚な行き止まりの世界に行き着くでしょう。
エリック ブリニョルフソンは、今日の AI には知覚力がないと確信しています。しかし、彼のコメントは、AI が最終的には知覚力を持つようになるだろうと信じていることを示しています。彼が本当に知覚力を持つ AI に遭遇したとき、どうやって知るでしょうか?彼は探しているでしょうか?
AI に関する議論では、懐疑論者がその機能を軽視する単純化された言葉でテクノロジーを説明することがよくあります。
ある AI 研究者は、Blake Lemoine のニュースに応えて次のように述べています。「高次元のパラメトリック関数を使用した記号処理やデータ処理から認識、理解、常識を獲得するという希望は不思議です。」ゲイリー・マーカス氏は、ブログ投稿で、今日の AI モデルは「パターンを照合し、大規模な統計データベースからデータを引き出すだけ」であるため、「テレパシー的な知能」ですらないと主張し、Google の大規模な言語モデルである LaMDA は単なる「スプレッドシート」にすぎないと主張しました。言葉」。
この推論は誤解を招くし、つまらないものです。結局のところ、私たちが望めば、同じように単純化された方法で人間の知能を構築することができます。私たちの脳は、特定の方法で相互接続されたニューロンの「単なる」大規模な集合であり、頭蓋骨内の基本的な化学反応の「単なる」集合です。
しかし、これは要点を外しています。人間の知性の力と魔法は、特定のメカニズムにあるのではなく、何らかの方法で現れる驚くべき能力にあります。シンプルな基本機能で、奥深い知的なシステムを生み出すことができます。
最終的には、人工知能はその能力に基づいて判断しなければなりません。
5 年前の人工知能の状態と今日のテクノロジーの状態を比較すると、自己などの分野でのブレークスルーにより、その機能と深さが大幅に増加した (そしてまだ加速し続けている) ことは疑いの余地がありません。 -教師あり学習: スケーリング、変換学習、強化学習の方法。
人工知能は人間の知能とは異なります。 AI が知覚を持つようになったとき、そしてもしそうなったとしたら、ネーゲルの定式では「何かに似たもの」になるとき、そしてもしそうなったとしたら、それは人間であることとは比べものにならないでしょう。人工知能は、独自の、なじみのない、魅力的で、急速に進化している認知形式です。
重要なのは、人工知能が何を達成できるかです。 AlphaFold のような基礎科学のブレークスルー、気候変動などの種レベルの課題への取り組み、人間の健康と長寿の促進、宇宙の仕組みについての理解を深めるなど、これらの結果は AI の能力と複雑さの真のテストとなります。
以上が一般的な人工知能、人工知能の知覚、および大規模言語モデルの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。