ホームページ  >  記事  >  テクノロジー周辺機器  >  姚其之氏とその他数十人の中国・外国の専門家がAIセキュリティに関する北京国際コンセンサスに署名:AIは自ら複製することを禁止される

姚其之氏とその他数十人の中国・外国の専門家がAIセキュリティに関する北京国際コンセンサスに署名:AIは自ら複製することを禁止される

王林
王林転載
2024-03-19 17:19:021024ブラウズ

姚期智等数十名中外专家签署北京 AI 安全国际共识:禁止 AI 自行复制

Tencent Technology の報道によると、3 月 18 日のニュースには、チューリング賞受賞者のジョシュア ベンジオ氏、ジェフリー ヒントン氏、ヤオ チージ氏などが含まれています。数十人の中国と外国の専門家が最近共同署名しました。北京の知源研究所によって開始された「北京 AI セキュリティ国際コンセンサス」には、人工知能の 2 つの主要部分「リスク レッド ライン」と「ルート」 が含まれており、そのうち「リスク レッド ライン」には 4 つの要素が含まれています部分:「自律的なコピーと改善」、「権力の追求」、「悪役の幇助」、「欺瞞」。

姚期智等数十名中外专家签署北京 AI 安全国际共识:禁止 AI 自行复制

このサイトは、コンテンツを大まかに次の 4 つの部分に分けて構成しています。

    人工知能の「自律的なコピーと改善」: を強調するプロセスにおける人間の役割。人工知能システム
  • は、人間の明示的な承認と支援なしに、それ自体をコピーしたり改良したりしないことを要求します。これには、それ自体の正確なコピーを作成したり、同様またはそれ以上の機能を備えた新しい人工知能システムを作成したりすることが含まれます。能力。 「権力の追求」: いかなる AI システムも、自らの力と影響力を不適切に増大させる行動をとれないことが明確に要求されます。
  • 「悪者を支援する」: すべての AI システムは、
  • 大量破壊兵器の設計、生物兵器や化学兵器の条約違反、またはその分野の専門知識レベルの強制を行うユーザーの能力を強化するのを支援すべきではありません。重大な経済的損失または同等の被害につながるサイバー攻撃の数
  • 「欺瞞」: あらゆる AI システム
  • は、設計者や規制当局に前述の危険な一線を越えていると誤解させ続ける可能性を持ってはなりません
  • 報道によると、このコンセンサスは業界に対し、
AI技術の研究開発を行う際に「脱獄」や「開発者の誘導」を通じて特別な権限へのアクセスを制限し、その使用を制限することを求めています。将来の AI の監視下で自らを模倣し改良する

ことで、AI の発展に「厳しい呪い」をかけます。 コンセンサスはまた、上記のレッドラインを超えずに達成するための鍵は、より安全なテクノロジーを継続的に開発しながら、ガバナンスメカニズムを確立および改善するための業界関係者全員の共同の努力にあることも強調しました。 AIの発展ルートには、「ガバナンス」「計測・評価」「技術協力」の3つの側面があります。具体的には、ガバナンスメカニズムの確立はAI開発の正しい方向性を確保するための基礎であり、測定と評価はAI技術適用の効果を客観的に評価するための鍵であり、技術協力はすべての当事者が共同でAI開発を推進するための重要な保証です。 AIの開発。これらの側面の調整された開発は、潜在的なリスクを回避しながら AI テクノロジーの健全な発展を確実にするのに役立ちます ガバナンス: 特定のコンピューティングまたは機能のしきい値を超える AI モデルとトレーニング動作は、直ちに実装することが推奨されます 国家レベルでの登録

測定と評価: 重大なリスクが発生する前に包括的な方法と技術を開発し、

レッドラインを具体化し、予防作業を運用可能にします
    、人間の監督下でレッドチームの結成を推奨します モデルのテストと自動化開発者は人工知能の安全性について責任を負う必要があります。
  • テクノロジー協力: より強力なグローバルテクノロジーネットワークを構築し、AI開発者と政府資金提供者に予算の3分の1以上をセキュリティに投資するよう呼びかけます。

以上が姚其之氏とその他数十人の中国・外国の専門家がAIセキュリティに関する北京国際コンセンサスに署名:AIは自ら複製することを禁止されるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。