ホームページ >テクノロジー周辺機器 >AI >「AIの世界」の欠点とは何でしょうか?オックスフォード大学マイケル・ウールドリッジ教授: 現実の世界
無限猿定理では、猿がタイプライターでランダムにキーを押し、キーを押す時間が無限に達すると、ほぼ確実にシェイクスピア全集などの任意のテキストを入力できるようになります。
この定理では、「ほぼ確実に」は特定の意味を持つ数学用語です。「猿」は本物の猿を指すのではなく、無限のランダム性を生成できる機械の比喩として使用されます。文字列のデバイス。
この理論は、たとえ観測可能な宇宙に入力を続けるサルがいっぱいいたとしても、大きくても有限な数を無限の推論として扱うのは間違いであることを示しています。彼らがハムレットを生み出すのはまだ 1/10^183800 未満です。
さらに、たとえ無数の猿に無制限の時間が与えられたとしても、彼らは吟遊詩人の詩的な語句をどのように評価すればよいのか分からないでしょう。
「人工知能 (AI) にも同じことが当てはまります」とオックスフォード大学のコンピューター サイエンス教授、マイケル ウールドリッジ氏は言います。
Wooldridge 氏の見解では、GPT-3 などの AI モデルは数百億、数千億のパラメーターで驚くべき機能を示していますが、問題は処理能力の大きさではなく、実際のシステムからの経験が不足していることです。世界。
たとえば、言語モデルは「雨が濡れている」ということをよく学習する可能性があり、雨が濡れているのか乾いているのか尋ねられると、おそらく雨は濡れていると答えるでしょうが、人間と同じように雨が濡れていると答えるでしょう。違いは、この言語モデルは実際に「濡れた」という感覚を経験したことがなく、彼らにとって「濡れた」は「雨」などの単語とよく組み合わされる記号にすぎません。
ただし、ウールドリッジ氏は、実際の物理世界の知識が不足しているからといって、AI モデルが役に立たないというわけではなく、また、特定の AI モデルが特定の分野の経験的専門家になることを妨げるものでもないとも強調しました。ただし、理解力などの問題を考慮すると、AIモデルが人間と同等の能力を持つ可能性は確かに疑わしい。
関連する研究論文は「現代の AI に欠けているものは何ですか? 世界」というタイトルで、雑誌「Intelligent Computing」に掲載されました。
現在の AI イノベーションの波では、データとコンピューティング能力が AI システムの成功の基盤となっています。AI モデルの能力は、そのサイズ、トレーニングに使用されるリソース、およびトレーニングデータの規模。
この現象に関して、ディープマインドの研究科学者リチャード・S・サットン氏は以前、AIの「痛ましい教訓」は、AIの進歩は主にますます大規模なデータセットと、ますます多くのデータの使用に依存しているということだと述べた。リソース。
AI 業界の全体的な発展について語るとき、ウールドリッジ氏はこう断言しました。 「過去 15 年間、AI 業界、特に機械学習 (ML) の分野の発展のペースには何度も驚かされました。私たちは何が可能なのか、いつ可能なのかを判断するために常に期待を調整する必要があります。
しかし、ウールドリッジ氏は、現在の AI 業界に存在する問題点も指摘しました。「彼らの成果は賞賛に値しますが、現在の大規模 ML モデルのほとんどは、1 つの重要な要素によって制限されていると思います。それは、AI です。」モデル 現実世界を実際に経験することはありません。
ウールリッジ氏の見解では、ほとんどの ML モデルはビデオ ゲームなどの仮想世界で構築されています。それらは大規模なデータ セットでトレーニングできます。物理世界に関与すると、適用されると、
自動運転車をサポートする人工知能を例に挙げると、自動運転車が路上で自ら学習することは非現実的です。このような理由やその他の理由から、研究者は仮想世界でモデルを構築することを選択することがよくあります。
「しかし、それらは、すべての環境の中で最も重要な環境、つまり私たちの世界で実行する能力を持っていないのです」とウールドリッジ氏は語った。 .
一方、言語 AI モデルも同じ制限に悩まされています。間違いなく、言語 AI モデルは、とんでもなく恐ろしい予測テキストから Google の LAMDA に進化しました。今年初め、元 Google エンジニアは、人工知能プログラムは、
「エンジニアの結論の正当性が何であれ、彼が LAMDA の会話能力に感銘を受けたことは明らかであり、それは十分に文書化されており、合理的である」とウールドリッジ氏は述べましたが、彼はそう言っています。 LAMDA に知覚力があるとは信じられませんし、AI がそのようなマイルストーンに近づいているわけではありません。
「これらの基本モデルは、自然言語生成において前例のない能力を実証し、より多くの自然言語を生成できます。テキストの断片もある程度の機能を獲得しているようです」これは、過去 60 年間の AI 研究における主要な出来事の 1 つです。 「
これらの AI モデルは、膨大なパラメーターの入力を必要とし、それらを理解するためにトレーニングされます。たとえば、GPT-3 は、インターネット上の数千億の英語テキストをトレーニングに使用します。大量のトレーニング データが結合されます。」強力なコンピューティング能力を備えたこの組み合わせにより、これらの AI モデルは人間の脳と同様に動作し、狭いタスクを超えてパターンを認識し始め、主要なタスクとは無関係に見える接続を確立できるようになります。
しかし、ウールドリッジ氏は、基本モデルは賭けであると述べ、「大量のデータに基づいたトレーニングにより、それらはさまざまな分野で役立ち、特定のアプリケーションに特化することができます。」
" シンボリック AI は、以下に基づいています。基本モデルは「知能は主に知識の問題である」という仮定に基づいているのに対し、基本モデルは「知能は主にデータの問題である」という仮定に基づいており、大規模モデルに十分な学習データが入力されれば、能力の向上が期待できると考えられます。
Wooldridge は、よりインテリジェントな AI を生み出すためには、この「正しいかもしれない」アプローチが AI モデルの規模を拡大し続けますが、AI を真に進化させるための鍵を無視していると信じています。現実の物理世界。
「公平を期すために言うと、状況が変わりつつある兆候がいくつかある」とウールドリッジ氏は語った。 DeepMind は 5 月に、大規模な言語セットと単純な物理環境で実行できるロボット データに基づく基本モデルである Gato を発表しました。
「基盤となるモデルが物理世界への最初の一歩を踏み出すのを見るのは素晴らしいことですが、ほんの小さな一歩に過ぎません。AI を私たちの世界で機能させるには、克服する必要のある課題は少なくとも同じくらい高いです」 AI をシミュレーションで作成するという環境で作業することの課題は、同様に大きく、おそらくそれ以上に大きいのです。」
論文の最後に、ウールリッジ氏は次のように書いています。「私たちは AI への道の終わりを探しているわけではありません」 「しかし、私たちはすでにそこに到達しているかもしれません。始まりの終わり。」
以上が「AIの世界」の欠点とは何でしょうか?オックスフォード大学マイケル・ウールドリッジ教授: 現実の世界の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。