ホームページ >テクノロジー周辺機器 >AI >GPT-5は停止されるのでしょうか? OpenAIは早朝に返答を発表:AIの安全性を確保するために「手抜き」はしない
最近、OpenAI にとっては「困難な時期」と言えるでしょう。
ChatGPT と GPT-4 が引き起こす可能性のあるセキュリティ問題のため、OpenAI は外部からの批判と妨害を受けています:
これらの出来事は、AI が人間社会に多くの利益をもたらす能力を持っていることが証明されているものの、テクノロジーは常に諸刃の剣であり、人間社会に現実のリスクをもたらす可能性があること、そして AI は人間社会に現実のリスクをもたらす可能性があることを示しています。例外なし 。
4 月 6 日、OpenAI は「AI の安全性へのアプローチ」というタイトルのブログ記事を正式にリリースし、「人工知能システムを安全に構築、展開、使用する」方法について説明しました。
#OpenAI は、強力な人工知能を安全に保ち、広く利益をもたらすことに取り組んでいます。当社の AI ツールは今日の人々に多くのメリットをもたらします。
世界中のユーザーから、ChatGPT が生産性の向上、創造性の向上、カスタマイズされた学習体験の提供に役立つとの声が寄せられています。
また、他のテクノロジーと同様、これらのツールには現実的なリスクが伴うことも認識しています。そのため、当社はあらゆるレベルでセキュリティがシステムに組み込まれるよう懸命に取り組んでいます。
1. より安全性の高い人工知能システムを構築する
新しいシステムをリリースする前に、当社は厳格なテストを実施し、フィードバックのために外部の専門家を参加させ、人間のフィードバックから強化学習を活用するよう努めています。行動をモデル化し、広範な安全性と監視システムを確立します。
たとえば、当社の最新モデルである GPT-4 のトレーニングが完了した後、スタッフ全員が 6 か月以上を費やして、一般公開前にそのモデルの安全性と一貫性を高めました。
私たちは、強力な人工知能システムは厳格なセキュリティ評価を受ける必要があると考えています。このアプローチを確実に採用するには規制が必要であり、私たちは政府と積極的に協力して、この規制の最良の形を模索しています。
2. 実際の使用状況から学び、安全対策を強化する
私たちは展開前に予見可能なリスクを防止するよう努めていますが、実験室で学べることは限られています。広範な調査とテストにもかかわらず、人々が当社のテクノロジーを有益に使用するすべての方法、または人々がテクノロジーを悪用するすべての方法を予測することはできません。そのため、私たちは、実際の使用から学ぶことが、時間の経過とともにより安全性の高い AI システムを作成およびリリースするための重要な要素であると信じています。
私たちは、多くの安全策を講じた上で、新しい AI システムを慎重に段階的にリリースし、着実に拡大する人口に向けて提供し、学んだことに基づいて継続的に改善しています。
当社は独自のサービスと API を通じて最も機能的なモデルを提供しているため、開発者はこのテクノロジーをアプリケーションで直接使用できます。これにより、不正行為を監視して対策を講じ、不正行為がどのようなものであるかについての理論だけでなく、人々がシステムを不正利用する実際の方法に対する緩和策を継続的に構築できるようになります。
実世界での使用により、私たちは、人々に本当のリスクをもたらす行為を防止すると同時に、当社のテクノロジーの多くの有益な使用を可能にする、ますます微妙なポリシーを開発することにもつながりました。
重要なのは、社会がますます能力が高まる AI にアップデートして適応する時間を与えられるべきであり、このテクノロジーの影響を受けるすべての人が AI が今後の開発において重要な発言権を持つことを理解する必要があると私たちは考えています。反復的な導入により、さまざまな関係者を AI テクノロジーの導入に関する会話に、これらのツールを直接体験していない場合よりも効果的に参加させることができます。
3. 子どもの保護
安全性の重要な側面は、子どもを守ることです。当社の AI ツールを使用するユーザーは 18 歳以上、または保護者の承認を得て 13 歳以上である必要があり、現在検証オプションの検討中です。
当社のテクノロジーを使用して、憎しみに満ちた、嫌がらせ、暴力的、またはアダルトなコンテンツ、その他の (有害な) カテゴリを生成することは許可されません。当社の最新モデルである GPT-4 は、GPT-3.5 と比較して、許可されていないコンテンツ要求に対する応答率が 82% 低く、悪用を監視する堅牢なシステムを構築しています。 GPT-4 は ChatGPT Plus ユーザーが利用できるようになりましたが、今後はより多くの人が GPT-4 を利用できるようにしたいと考えています。
私たちは、モデルが子供にとって有害なコンテンツを生成する可能性を最小限に抑えるために多大な努力を払ってきました。たとえば、ユーザーが子供に安全な虐待素材を当社の画像ツールにアップロードしようとすると、当社はその行為をブロックし、国立行方不明児童搾取センターに報告します。
デフォルトの安全ガードレールに加えて、私たちは非営利団体カーン アカデミーのような開発者と協力しています。カーン アカデミーは、生徒の仮想家庭教師と教師の教室アシスタントの両方として機能する AI 搭載アシスタントを構築しました。生徒のセキュリティ軽減策をカスタマイズします。使用例。また、この機能を必要とする開発者やユーザーをより適切にサポートするために、開発者がモデル出力に対してより厳格な基準を設定できるようにする機能も開発中です。
4. プライバシーの尊重
当社の大規模な言語モデルは、公開されている承認されたコンテンツや人間のレビュー担当者によって生成されたコンテンツを含む、広範なテキストのコーパスでトレーニングされています。私たちはサービスや広告を販売したり、人々のプロフィールを構築したりするためにデータを使用するのではなく、私たちのモデルを人々にとってより役立つものにするためにデータを使用します。たとえば、ChatGPT は、ChatGPT との会話について人々をさらにトレーニングすることで機能を向上させます。
トレーニング データの一部には公共のインターネット上の個人情報が含まれていますが、私たちはモデルにプライベートな世界ではなく世界について学習してもらいたいと考えています。したがって、私たちは、可能な場合にはトレーニング データ セットから個人情報を削除し、個人情報の要求を拒否するようにモデルを微調整し、個人情報をシステムから削除してほしいという個人からの要求に対応するよう努めています。これらの手順により、モデルが個人情報を含むコンテンツを生成する可能性が最小限に抑えられます。
5. 事実の正確性を向上させる
大規模な言語モデルは、ユーザーが提供したテキスト入力など、以前に見たパターンに基づいて次の単語のシーケンスを予測し、生成します。場合によっては、次に可能性が高い単語が事実として正確ではない可能性があります。
事実の正確性を向上させることは、OpenAI や他の多くの AI 開発者にとって重要な仕事であり、私たちは進歩を続けています。プライマリ データ ソースとして不正確であるとフラグが立てられた ChatGPT 出力に対するユーザー フィードバックを活用する。
私たちは、幻覚の可能性をさらに減らし、これらの人工知能ツールの現在の限界について一般の人々を教育するために、やるべきことはまだたくさんあることを認識しています。
6. 継続的な研究と取り組み
私たちは、AI の安全性問題に対処する現実的な方法は、効果的な緩和策の研究と技術の適応に、より多くの時間とリソースを投資し、実際にテストされたものをターゲットにすることであると考えています。世界の虐待。
重要なのは、AI の安全性と機能の向上は密接に関係している必要があると私たちが信じていることです。これまでのところ、当社の最高のセキュリティ作業は、当社の最も有能なモデルを使用することで実現しています。これは、モデルの方がユーザーの指示に従うのが上手で、ガイドや「指導」が容易であるためです。
より有能なモデルが作成され展開されるにつれて、私たちはますます慎重になり、AI システムがさらに発展するにつれてセキュリティ予防策を強化し続けます。
GPT-4 の機能、利点、リスクをよりよく理解するために GPT-4 の導入まで 6 か月以上かかりましたが、AI システムのパフォーマンスを向上させるにはそれ以上の時間がかかる場合があります。したがって、政策立案者と AI ベンダーは、AI の開発と展開が世界中で効果的に管理され、できるだけ早く成功を収めるために誰も「手抜き」をしないようにする必要があります。これは技術的および制度的革新を必要とする困難な課題ですが、私たちが積極的に貢献したいと考えているものでもあります。
安全性の問題に対処するには、AI システムの動作の境界など、広範な議論、実験、取り組みも必要です。私たちは、安全な AI エコシステムを構築するために、関係者間のコラボレーションとオープンな対話をこれまでも推進してきましたし、今後も推進していきます。
以上がGPT-5は停止されるのでしょうか? OpenAIは早朝に返答を発表:AIの安全性を確保するために「手抜き」はしないの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。