ホームページ >テクノロジー周辺機器 >AI >OpenAI の 3 人のリーダーが個人的に次の記事を書きました: スーパーインテリジェンスをどのように管理すべきか?
AI が今日ほど人類の生活に広範囲に影響を及ぼし、人類にこれほど多くの心配やトラブルをもたらしたことはありません。
過去の他のすべての主要な技術革新と同様、AI の発展にも 2 つの側面があり、1 つは善に直面し、もう 1 つは悪に直面します。世界中で規制当局が動き始めており、積極的な介入が行われる重要な理由の 1 つです。
いずれにせよ、AI テクノロジーの発展は一般的な傾向であり、止めることはできないようです。より安全な開発と展開は、現在のすべての AI 実践者が真剣に検討する必要がある問題です。 本日、
OpenAI の 3 人の共同創設者、CEO の Sam Altman、社長の Greg Brockman、主任研究員の Ilya Sutskever 超知性を統治する方法について議論する記事を共同執筆しました。彼らは、今が超インテリジェント・ガバナンス、つまりAGIよりもさらに高性能な将来の人工知能システムについて考え始める良い時期だと主張している。 これまで見てきたことに基づくと、
今後 10 年以内に、人工知能 (AI) はほとんどの分野で人間を超えると考えられます。フィールド 熟練したスキル レベルで、今日の最大規模の企業の 1 つと同じくらい多くの生産活動を実行できます。 #潜在的な利点と欠点に関係なく、超知性は、人類が過去に直面しなければならなかった他のテクノロジーよりも強力になるでしょう。
私たちは信じられないほど豊かな未来を手に入れることができますが、そこに到達するにはリスクを管理する必要があります。 存立危機の可能性を考慮すると、受け身で対応するわけにはいきません。この性質を持つテクノロジーの一例として原子力があり、合成生物学もその一例です。
同様に、現在の AI テクノロジーのリスクを軽減する必要がありますが、スーパーインテリジェンスには特別な処理と調整が必要です。出発点
第一に、私たちの安全を確保し、これらのシステムが他のシステムとスムーズに統合できるようにスーパーインテリジェンスが開発されるように、主要な開発取り組み間で調整する必要があります。社会。
これを達成するには多くの方法があります。世界の主要政府が協力して、現在の取り組みの一部となるプロジェクトを設立することも、「集団的同意」を通じてそれを行うこともできます。 (以下に提案するように、新たな組織支援部隊を導入すると)最先端の AI 機能の成長が毎年一定の割合に制限されることになります。
もちろん、個々の企業も責任ある開発を行うために非常に高い基準を遵守する必要があります。第二に、超知能の開発を規制するために、最終的には国際原子力機関 (IAEA) のようなものが必要になるかもしれません。
能力 (またはコンピューティングやその他のリソース) の一定のしきい値を超える取り組みは、この国際機関によって監督される必要があります。この国際機関は、システムを検査し、監査を要求し、セキュリティ標準への準拠をテストし、展開の範囲に制限を課し、セキュリティレベルなど。 コンピューティングとエネルギーの使用状況を追跡することは非常に役立ち、このアイデアが実際に実現可能であるという希望を与えてくれます。第 1 ステップとして、企業は、そのような機関がいつか要求するであろう要素の実装を開始することに自発的に同意することができ、第 2 ステップとして、各国がそれを実装することができます。重要なのは、そのような機関は、AIに何を発言させるべきかを定義するなど、各国に任せるべき問題ではなく、「実存的リスク」の軽減に重点を置くべきだということだ。 第三に、 スーパーインテリジェンスを安全にするのに十分な技術的能力が必要です。 これは未解決の研究課題であり、私たちや他の人々が多大な労力を費やしています。 私たちは、企業やオープンソース プロジェクトが、重要な機能のしきい値を下回るモデルを開発できるようにすることが重要であると考えています。ここで説明する規制の種類 (ライセンスや監査などの面倒なメカニズムを含む)。 今日のシステムは世界に多大な価値を生み出すでしょう。リスクはありますが、そのリスク レベルは他のインターネット テクノロジーや社会の反応と同等であると考えられます。そのアプローチは適切であるように思えた。 対照的に、私たちが焦点を当てているシステムは、これまでのどのテクノロジーをも超える力を持つため、適用することで私たちの努力が圧倒されないよう注意する必要があります。このしきい値では、はるかに下位のテクノロジーと同様の標準を使用して、それらへの注目を軽視します。 しかし、最も堅牢なシステムのガバナンスとそのシステムを取り巻く問題については、配備の決定には国民の強力な監視が必要です。 私たちは、世界中の人々が AI システムの境界とデフォルトを民主的に決定すべきであると信じています。このようなメカニズムをどのように設計するかはまだわかりませんが、いくつかの実験を行う予定です。私たちは、これらの広い境界内で、個々のユーザーが AI に対してどのように動作するかを大幅に制御できるべきだと信じ続けています。 #リスクと困難を考慮すると、なぜこのテクノロジーを構築するのかを考える価値があります。 #OpenAI には 2 つの基本的な理由があります。まず、私たちは、これが今日私たちが想像するよりも良い世界につながると信じています(教育、創造的な仕事、個人の生産性などの分野で、この初期の例がすでに見られています)。世界は多くの問題に直面しており、それらを解決するためのさらなる支援が必要です。このテクノロジーは私たちの社会を改善することができ、これらの新しいツールを使用する皆さんの創造性にきっと驚かれるでしょう。経済成長と生活の質の向上は驚くべきものとなるでしょう。 第二に、我々は、超知性の構築をやめるのは、直感的には危険で困難を伴う決断になると考えています。 その大きな利点により、スーパーインテリジェンスの構築コストは年々低下しており、構築者の数は急速に増加しています。そして、それは本質的に私たちが進んでいる技術的な道の一部であり、それを止めるには次のようなものが必要になります。世界的な監視体制が存在しますが、そのような体制でさえ成功を保証するものではありません。 したがって、私たちはそれを正しく理解する必要があります。 範囲外
一般参加と可能性
以上がOpenAI の 3 人のリーダーが個人的に次の記事を書きました: スーパーインテリジェンスをどのように管理すべきか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。