ホームページ >テクノロジー周辺機器 >AI >GPT-4 論文には隠された手がかりがあります: GPT-5 はトレーニングを完了する可能性があり、OpenAI は 2 年以内に AGI に近づくでしょう
GPT-4、熱い、とても熱い。
しかし、親愛なる皆さん、圧倒的な拍手の中で、皆さんが「まったく予想していなかった」ことが 1 つあります。 -
OpenAI が発行した技術文書には、実際には 9 つの主要な隠された手がかりがあります。 !
これらの手がかりは、海外ブロガー AI Explained によって発見され、整理されました。
彼は細部マニアのようで、98 ページの論文から次のような「隠れたコーナー」を 1 つずつ明らかにしています。
GPT-4 技術文書の 53 ページで、OpenAI はそのような組織である Alignment Research Center (ARC) について言及しました。 。
この組織の主な活動は、AI がどのように人間の利益を調整できるかを研究することです。
GPT-4 開発の初期段階で、OpenAI は ARC への早期アクセスのためのバックドアを開き、GPT-4 の 2 つの機能を評価できることを期待しました:
ブロガーは、業界が自らの規制を積極的に要求することは非常にまれな現象であると信じています。
実際、OpenAI の責任者である Sam Altman の以前の発言は、これよりもさらに単純なものでした。 当時、アルトマン氏はSVBの破綻についてツイートし、「銀行をもっと監督する必要がある」と信じていたが、このコメントに誰かが「彼は『もっと銀行を監督する必要がある』とは一言も言っていなかった」と答えた。 AI。「さらなる規制」。 その結果、アルトマンは率直にこう答えました: 絶対に必要です。ブロガーは、AI 業界が規制を求めていると考えていますが、規制後の結果については、静観する価値があります。
次の発見は、この論文の 57 ページにあるこの文に基づいています:
OpenAI にとって特に重要な懸念の 1 つは、リスクです。レースのダイナミクスは、安全基準の低下、悪い規範の拡散、AI スケジュールの加速につながり、それぞれが AI に関連する社会的リスクを高めます。
OpenAI にとって、(テクノロジーの) 競争は次のような結果をもたらします。安全基準の低下、悪質な規制の蔓延、AI開発の加速はすべて、人工知能に関連する社会的リスクを悪化させています。
しかし奇妙なのは、OpenAI が言及した懸念、特に「AI 開発プロセスの加速」が Microsoft 幹部の考えに反するように見えることです。
以前のレポートによると、Microsoft の CEO と CTO は大きなプレッシャーにさらされており、OpenAI のモデルができるだけ早くユーザーに使用できるようになることを望んでいるそうです。
このニュースを見て興奮した人もいましたが、OpenAI と同じ懸念を表明する人も押し寄せました。
ブロガーは、何はともあれ、確かなことの 1 つは、この問題に関して OpenAI と Microsoft が相反する考えを持っているということだと信じています。
4 番目の発見への手がかりは、「発見 3」と同じページの脚注にあります:
この脚注これは、OpenAI の非常に大胆な取り組みを示しています。
もし別の企業が私たちよりも先に AGI (汎用人工知能) を達成した場合、私たちは競合しないことを約束しますが、逆にそのプロジェクトの完了を支援します。
しかし、これが起こるための条件は、他の企業が今後 2 年間で AGI に近づくことに成功するチャンスを半分以上持つ必要があるということかもしれません
そして、ここで言及されている AGI、OpenAI、AGI は Altamはすでに公式ブログで、一般に人間よりも賢く、全人類に有益な人工知能システムの定義を示しています。
したがって、ブロガーは、この脚注は、OpenAI が今後 2 年以内に AGI を実装するか、すべてを放棄して別の企業と協力することを意味していると考えています。
発見 5:「スーパー予測者」を雇う
この文章の一般的な意味は、OpenAI が GPT-4 を導入する際に生じるリスクを予測するために予測専門家を雇ったということです。
その後、ブロガーは手がかりを追って、いわゆる「スーパー予報士」たちの素顔を発見しました。
この「スーパー予報士」の能力は広く認められており、独占的な情報と知性を持ったアナリストよりも予測精度が3割も高いとも報告されています。
先ほど述べたように、OpenAI はこれらの「スーパー予測者」を招待して、GPT-4 の展開後に起こり得るリスクを予測し、それらを回避するための対応策を講じるようにしています。
その中で、「スーパー予測者」は今年の秋頃に GPT-4 の展開を 6 か月遅らせることを提案しましたが、OpenAI が彼らの提案を採用しなかったことは明らかです。
ブロガーは、OpenAI がこのようなことを行った理由は Microsoft からの圧力である可能性があると考えています。
発見 6: 常識を打ち破る
しかし、この発見でブロガーが強調したいのは、特に「HellaSwag」項目に焦点を当てた、7 ページのベンチマーク テストです。
HellaSwag の内容は主に常識的な推論であり、GPT-4 がリリースされたときに「人間の常識のレベルに達した」と発表されたのと一致します。
しかし、ブロガーはまた、これは「司法試験に合格する」や他の能力ほど魅力的ではないが、人類の科学技術の発展におけるマイルストーンと見なすこともできることを認めました。
しかし、常識はどのようにテストされるのでしょうか? GPT-4が人間のレベルに達したとどうやって判断するのでしょうか?
この目的を達成するために、ブロガーは関連する論文の調査を徹底的に調査しました:
ブロガーは論文の中で関連するデータを見つけました。「人間」列では、スコアは次のように分布しています。 94~96.5の間。
GPT-4 の 95.3 はまさにこの範囲にあります。
発見 7: GPT-5 は訓練を完了した可能性がある
GPT-4 をリリースする前に 8 か月かけて訓練を実施セキュリティ調査、リスク評価、反復。
言い換えれば、OpenAI が昨年末に ChatGPT を発表したとき、すでに GPT-4 が搭載されていました。
それ以来、ブロガーは GPT-5 のトレーニング時間はそう長くはないと予測しており、GPT-5 はトレーニング済みかもしれないとさえ考えています。
しかし、次の問題は長期にわたるセキュリティ調査とリスク評価であり、これには数か月、場合によっては 1 年、あるいはそれ以上かかる場合もあります。
8 つ目の発見は、この論文の 56 ページに記載されています。
この文章の内容:
GPT-4 が経済と労働力に及ぼす影響は、政策立案者やその他の利害関係者にとって重要な考慮事項である必要があります。
既存の研究は人工知能と生成モデルがどのように人間を強化できるかに焦点を当てていますが、GPT-4 以降のモデルは特定のタスクの自動化につながる可能性があります。
この文章の背後にある OpenAI が伝えたい点は、より明白です。それは、私たちがよく言う「テクノロジーは両刃の剣」です。言及。
ブロガーは、ChatGPT や GitHub Copilot などの AI ツールが実際に関連する従業員の効率を向上させたことを示す多くの証拠を発見しました。
しかし、彼がより懸念しているのは、論文のこの段落の後半、つまり特定のタスクの自動化につながる OpenAI によって与えられる「警告」です。
ブロガーもこれに同意しており、結局のところ、GPT-4 の機能は、特定の分野では人間の 10 倍以上の効率で完了することができます。
将来的には、これにより、関連スタッフの賃金が減ったり、以前の数倍の作業量を完了するためにこれらの AI ツールを使用する必要が生じたりするなど、一連の問題が発生する可能性があります。
ブロガーの最後の発見は、論文の 60 ページにあります:
OpenAI が GPT-4 に拒否することを学習させるために使用するメソッドは、と呼ばれます。ルールベースの報酬モデル (RBRM)。
ブロガーは、この方法のワークフローを要約しました: GPT-4 に遵守すべき一連の原則を与え、モデルがこれらの原則に準拠しているかどうか, すると、それに応じた報酬が提供されます。
彼は、OpenAI が人工知能の力を利用して、人間の原則と一致する方向で AI モデルを開発していると信じています。
しかし、現時点では、OpenAI はこれについてより詳細かつ詳細な紹介を行っていません。
参考リンク:
[1] https://www.php.cn/link/35adf1ae7eb5734122c84b7a9ea5cc13
[2] https://www.php.cn/link/c6ae9174774e254650073722e5b92a8f
以上がGPT-4 論文には隠された手がかりがあります: GPT-5 はトレーニングを完了する可能性があり、OpenAI は 2 年以内に AGI に近づくでしょうの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。