ホームページ > 記事 > テクノロジー周辺機器 > 討論: ウルトラマン、ヒントン、ヤン・リークンの AI に関する OpenAI の意見の違いは何ですか?
2023北京知源会議が6月9日に北京で開幕し、知源研究院が主催した。このカンファレンスは 5 年連続で開催されており、人工知能に関する毎年恒例の国際ハイエンド専門家交流イベントです。
このカンファレンスは2日間続いたと報告されており、中心的な議題は人工知能の開発が直面する機会と課題であり、OpenAIを含むAI分野のトップ専門家200人以上がカンファレンスに参加した。創設者サム・アルトマン、チューリング賞受賞者のジェフリー・ヒントン、ヤン・ルカンら。彼らは皆、AI の発展と課題について意見を述べました。
(出典: データマップ)
「人工ニューラル ネットワークはすぐに本物のニューラル ネットワークよりも賢くなるのでしょうか?」 ヒントンは講演の中で主にそのような問題について議論しました。
(出典: データマップ)
従来のコンピューティングでは、指示に正確に従うことができることがコンピューターの鍵となります。この機能により、ユーザーは同じプログラムまたはニューラル ネットワークを使用する場合に、異なるハードウェアを選択できます。これは、プログラム内のニューラル ネットワークの重みとハードウェアの間に依存性がないことを示しています。
「彼らが指示に従う理由は、それらが問題を調べ、問題を解決するために必要な手順を決定し、コンピュータにそれらの手順を実行するように指示できるように設計されているからです」とヒントン氏は言う。
大規模な言語モデルをより低コストでトレーニングするために、彼は「制限付きコンピューティング」を提案しました。これは、従来のコンピューティングにおけるハードウェアとソフトウェアの分離という基本原則を放棄し、ハードウェアのシミュレーションに基づいてコンピューティングタスクを効率的に実行することを意味します。
しかし、このアプローチには 2 つの主な問題があります。
まず、「学習プロセスは、それが実行されるハードウェア部分の特定のシミュレーション特性を利用する必要がありますが、それらの特性が何であるかは正確にはわかりません」とヒントン氏は述べています。
第二に、この方法には制限があります。 「知識はハードウェアの詳細と密接に結びついているため、特定のハードウェア デバイスに障害が発生すると、得られた知識はすべて失われます」とヒントン氏は説明します。 「
上記の問題を解決するために、彼と彼の協力者は「蒸留法」などの多くの方法を試し、非常に効果的であることが判明しました。
彼はまた、インテリジェントなグループが知識を共有する方法がコンピューティングの多くの要素に影響を与えると指摘しました。これは、現在の大規模な言語モデルは大量の知識を学習できるように見えますが、主に文書を学習することによって知識を取得し、現実世界から直接学習する能力がないため、学習方法が非常に非効率であることを意味します。
ビデオ モデリングなどの教師なし学習モデルにより、効率的に学習できます。ヒントン氏によると、これらのデジタル エージェントが有効になると、人間よりも優れた学習能力を持ち、非常に早く学習できるようになります。 「
この開発傾向に従えば、インテリジェントエージェントはすぐに人間よりも賢くなるでしょう。ただし、これにはエージェントと人間の間の制御をめぐる争い、倫理や安全の問題など、多くの課題も伴います。
「今後 10 年以内に、汎用人工知能システム (Artificial General Intelligence、AGI) が 1990 年代初頭に人間が持っていた専門知識のレベルを超えることを想像してみてください。」とアルトマン氏は言いました。
Zhiyuan Research Institute の張宏江会長との講演と質疑応答の中で、AGI の安全性を促進する重要性と戦略について議論しました。
(出典: データマップ)
「無謀な開発と展開が引き起こす可能性のある問題に対して、私たちは責任を負わなければなりません。」とアルトマン氏は述べ、包括的な国際規範と標準の確立と、国際協力によるAGI安全システムの建設の推進という2つの方向性を指摘した。
現時点では、大規模な言語モデルを真に安全で役立つ人間のアシスタントにできるようにどのようにトレーニングするかが、解決する必要がある主な問題です。
これに関して、ウルトラマンはいくつかの解決策を提案しました。
まず、人間による他の AI システムの監視を支援できるモデルのトレーニングなど、スケーラブルな監視に投資します。
第二に、モデルの解釈可能性をさらに高めるために、機械学習テクノロジーのアップグレードを継続します。
私たちの最終的な目標は、AI システムが自らをより適切に最適化できるようにすることです。アルトマン氏は、「将来のモデルがますます賢くなり、より強力になるにつれて、AI の並外れた利点を実現しながらリスクを軽減する、より優れた学習技術が見つかるでしょう。」と述べています。 「
Yang Likun 氏と Altman 氏は、AI によってもたらされる現在のリスクにどのように対処するかについて同じ見解を持っています。この文は、「これらのリスクは存在しますが、慎重なエンジニアリング設計を通じて軽減または制御することができます。」と書き直すことができます。 「
しかし、GPT のような大規模モデルに常に反対してきた専門家として、Yang Likun 氏は「学習、思考、計画ができるマシンに向けて」と題した講演で、自己教師あり学習に代表される AI システムの利点を明確に指摘しました。 。
(出典: データマップ)
自然言語の処理と生成において非常に強力な効果を示していますが、人間や動物のような推論と計画の能力がないため、必然的に事実上の誤りや論理的な誤りが発生します。価値観の毒殺。
これに基づいて、Yang Likun 氏は、AI は今後数年間で 3 つの大きな課題に直面すると考えています: 世界の表現と予測のためのモデルの学習、推論能力の学習、複雑なタスクを単純なタスクに分解して階層化する方法の学習です。 。
そして、彼はワールド モデルが AGI への道の中核であるという考えを提唱しました。
彼の見解では、世界モデルとは、将来何が起こるかを想像でき、最小限のコストで独自の予測を行うことができるシステムです。
システムは、世界の現在の状態を処理するためにメモリに保存されている可能性のある以前の世界観を利用して動作します。次に、世界モデルを使用して、世界がどのように進み、何が起こるかを予測します。とヤン・リークンは言った。
それでは、この世界モデルをどのように実装すればよいのでしょうか? 「私たちは、さまざまなレベルの予測子を使用した世界のエンコーダーとモデルのチェーンを通じて、世界状態のより抽象的な表現を抽出する階層化システムを持っています」と彼は言いました。
簡単に言えば、複雑なタスクをミリ秒レベルまで分解して計画することで完了することを意味します。明確にしておきたいのは、コストを管理し、基準を最適化するためのシステムを導入する必要があるということです。
上記のことから、3 人の専門家は AI について異なる見解や意見を持っているものの、全員が AI の発展が一般的な傾向になっていると述べていることがわかります。ウルトラマンが言ったように、AIの発展を止めることはできません。
これに基づいて、AI を開発するためのより良い方法を見つけ、それがもたらす可能性のある一連のリスクと害を抑制し、最終的に AGI の終焉に向けて進む方法が、人々が次に焦点を当てる必要がある主な方向性となるでしょう。ステージ。
以上が討論: ウルトラマン、ヒントン、ヤン・リークンの AI に関する OpenAI の意見の違いは何ですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。