ホームページ > 記事 > テクノロジー周辺機器 > パフォーマンスモンスターはChatGPTの後に来るのでしょうか?マーカスの 7 つの「暗い」予測: GPT-4 は AGI をもたらさない
2022 年も終わりに近づき、OpenAI は ChatGPT と呼ばれるチャットボットをリリースし、インターネット上ですぐに人気になりました。
# 発売から 2 週間も経たないうちに、100 万人以上がオンライン トライアルにサインアップしました。ユーザーはテキストを入力するだけで、記事、物語、詩の素晴らしい一節に即座にアクセスできます。
#これは非常によく書かれているため、Tinder でデートの冒頭のラインを書くためにこれを使用する人もいます (「ここに座ってもいいですか? ヒップスラストをします」)見た目を見ると少し足が弱ります。")
それだけでなく、世界中の教育者に大きな衝撃を与えているのは、学生たちが ChatGPT を使い始めているということです。期末レポートを書くために。検索エンジンを再発明するためにこれを使用している人もいます。突然、全世界が ChatGPT の魔法について議論するようになりました。
# それでも、マーカス氏は、チャットボットにあまり厚いフィルターをかけることはできないと言います。
#ChatGPT はすべてを知っているように見えますが、エラーが発生する傾向もあります。マーカス氏はインタビューで、ChatGPTは以前と同じであり、システムは「依然として信頼性が低く、現実世界を理解しておらず、心理的世界をまだ理解しておらず、依然としてバグが多い」と述べた。
言い換えれば、ChatGPT はナンセンスな話をすることが多く、書かれていることのかなりの部分は単純に真実ではありません。
たとえば、ユーザーの指導の下、ChatGPT は、揚げた生地スティックは「サイズが小さく、より高い成果を達成できるため、手術に非常に適している」と言えます。 「精度と制御により、合併症のリスクが軽減され、手術の全体的な結果が向上します。」
チャットボットがあまりにもナンセンスを吐き出すため、有名な Web サイト Stack Overflow はコンピューターによる回答を一時的に禁止しました。
# そして間違いは無限にあります。 ChatGPT はユーザーのフィードバックに基づいて調整を行うことがよくありますが、製品がリリースされてから数週間後、多くのネチズンは依然としてその反応に言葉を失いました。 # 同様の間違いは頻繁に発生しており、OpenAI CEO の Sam Altman でさえ現実を認めざるを得ません:
ChatGPT は依然として多くの制限がありますが、偉大さの錯覚を生み出すには十分です。
#重要なタスクを完了するために ChatGPT に依存するのはまだ時期尚早です。堅牢性と信頼性を向上させるためにやるべきことはまだたくさんあります。# つまり、ChatGPT はスタートレックに出てくるコンピューターのように SF のように聞こえますが、現時点では人々はそれを完全に信頼することはできません。
#もちろん、ChatGPT は 2022 年の AI 愛好家への贈り物です。 2023年はどうなるでしょうか?
2023 年、シリコンバレーと全世界が待ち望んでいるのは GPT-4 です。
GPT-4を実際に試した人はこんな人製品に深く感銘を受けました。いくつかの噂によると、GPT-4は2023年の春にリリースされる予定です。その時までに、ChatGPT は ChatGPT を上回り、より多くの人がそれについて話すようになるでしょう。
#GPT-4 に対する期待はさまざまな意味で非常に高くなります:
##ベンチャーキャピタル会社DVCの創設者であるニック・ダビドフ氏は、「GPT-4の出現は「新型コロナウイルスの流行と同様の経済的影響」をもたらすだろう」と述べた。 GPT-4 の急速な普及と使用により、「何億もの知識労働者の生産性が急速に向上」する可能性があります。
技術的に言えば、GPT-4 にはより多くのパラメータ、より多くのプロセッサとメモリがあり、より多くのデータでトレーニングされます。
GPT-1 は 4.6 GB のデータでトレーニングされ、GPT-3 ではデータ量が直接 750 GB に急増しました。 GPT-4 の学習量はさらに驚くべきものとなり、インターネット全体のほとんどを学習することがわかります。
#OpenAI は、トレーニング量が増えると出力も向上することを認識しています。反復を繰り返すたびに、GPT のパフォーマンスはますます人間らしくなっていきます。 GPT-4に関してはパフォーマンスモンスターに進化するかもしれません。
#しかし、これで以前に遭遇した問題は解決するでしょうか?マーカスはこれについてまだ疑問を持っています。
GPT-4 は確かに前世代よりもスマートに見えますが、内部アーキテクチャにはまだ問題があります。
マーカス氏は、GPT-4 に関して人々は既視感を覚えるのではないかと述べました。最初はインターネット全体で人気があり、そして数日後、まだ多くの問題が存在することが判明しました。
#現在の情報によると、GPT-4 のアーキテクチャは基本的に GPT-3 と同じです。もしそうなら、いくつかの根本的な問題が未解決のままであることが予想されます。チャットボットには、世界がどのように機能するのかについての内部モデルがまだ欠けています。
# したがって、GPT-4 は抽象レベルで物事を理解することができません。学生が作文を書くのを手助けするのには優れているかもしれませんが、それでも世界を真に理解することはできませんし、機械の特性は答えの行間から明らかになるでしょう。 ##GPT-4 に関する 7 つの主要な予測
1. GPT-4 は、以前のバージョンと同様に、依然としてあらゆる種類の愚かな間違いを犯します。特定のタスクをうまく実行できる場合もあれば、失敗する場合もありますが、どのような状況が発生するかを事前に予測することはできません。 2. 物理学、心理学、数学における GPT-4 の推論はまだ信頼できません。これまでに挑戦して成功しなかった一部のプロジェクトを解決できるかもしれませんが、より長く複雑なシナリオに直面した場合には依然として無力です。
たとえば、医学的な質問をされると、回答を拒否したり、合理的に聞こえるが危険なナンセンスな発言をしたりすることがあります。インターネット上の膨大な量のコンテンツを食い込んでいますが、信頼できる医学的アドバイスを提供できるほど信頼性や完全性はありません。
3. 流暢な幻覚は引き続き一般的であり、容易に引き起こされるでしょう。そうは言っても、大規模な言語モデルは依然として、合理的に聞こえるが完全に間違っている情報を簡単に作成するために使用できるツールです。
4. GPT-4 の自然言語出力は、依然として信頼性の高い方法でダウンストリーム プログラムに提供できません。これを使用して仮想アシスタントを構築する開発者は、ユーザー言語をユーザーの意図に確実にマッピングできないことに気づくでしょう。
5. GPT-4 自体は、あらゆる課題を解決できる汎用の人工知能ではありません。外部からの支援がなければ、外交でメタのシセロを倒すことも、車を確実に運転することもできず、「トランスフォーマー」のオプティマス・プライムや「ジェットソンズ」のロージーを運転することもできません。
####6 「人間が望むこと」と「機械が行うこと」の間の「関係」は依然として重要な未解決の問題です。 GPT-4 は依然としてその出力を制御できず、一部の推奨事項は驚くほど悪いものになり、隠れたバイアスの例は数日または数か月以内に発見されるでしょう。 7. AGI (汎用人工知能) が実現すると、GPT-4 のような大規模な言語モデルが最終ソリューションの一部になる可能性がありますが、それは一部にすぎません。単に「スケーリング」すること、つまりインターネット全体を吸収するまでより大きなモデルを構築することは、ある程度有用であることがわかります。しかし、信頼でき、人間の価値観と一致する一般的な人工知能は、間違いなく、より構造化されたシステムから生まれるでしょう。より多くの知識が組み込まれ、明確な推論および計画ツールが含まれます。これらはすべて、現在の GPT システムには欠けています。 マーカス氏は、10 年以内、あるいはそれよりも短い期間以内に、人工知能の焦点は大規模な言語モデルのスケールアップから、より広範なテクノロジーとの統合に移ると考えています。 クールなものは常に楽しいものですが、それが私たちを信頼できる一般的な人工知能に導くことができるという意味ではありません。 これに関して、マーカス氏は、将来必要となるのは形式知と世界モデルを核とする新しいアーキテクチャであると予測しています。 参考: https://garymarcus.substack.com/p/what-to-expect-when-youre-expecting以上がパフォーマンスモンスターはChatGPTの後に来るのでしょうか?マーカスの 7 つの「暗い」予測: GPT-4 は AGI をもたらさないの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。