ホームページ > 記事 > テクノロジー周辺機器 > 米メディア「人工知能は疫病や核戦争と同じくらい危険」
リファレンス・ニュース・ネットワークは5月31日に報じた米国フォーチュン誌のウェブサイトは5月30日、「サム・アルトマン氏と他の技術専門家は人工知能が「絶滅のリスク」をもたらすと警告「危険のレベルは疫病や核戦争に匹敵する」全文は次のように抜粋されます。
技術者やコンピューター サイエンスの専門家は、人工知能が核戦争や世界的パンデミックと同等の存続の脅威をもたらすと警告しており、人工知能のキャンペーンを主導してきたビジネスリーダーさえも、このテクノロジーが人類を脅かすのではないかと懸念を表明しています。非営利研究組織である人工知能セキュリティセンターは 30 日に「人工知能のリスクに関する声明」を発表し、300 人以上が署名した Open Artificial Intelligence Research CEO サム・オア氏センター・ターマンもその一人だ。この手紙は短いものですが、人工知能のリスクについて概説しています。 「人工知能が人類を絶滅させるリスクを軽減し、伝染病や核戦争など、社会全体に影響を与えるその他のリスクを軽減することは、世界的な優先事項であるべきだ」と書簡には書かれている。
この手紙の冒頭は、声明の目的が人工知能技術の潜在的な終末論的な機能に備えるための議論を開始することであることを示しています。 Joshua Benjo 氏と元 Google エンジニアの Jeffrey Hinton 氏もこの取り組みに参加した他の署名者の一人です。現代のコンピューター サイエンスへの貢献により、この 2 人は人工知能のゴッドファーザーとして知られています。ベンジョー氏とヒントン氏はここ数週間、人工知能技術が近い将来開発する可能性のある危険な機能について繰り返し警告してきた。ヒントン氏は最近、人工知能のリスクについてもっとオープンに議論できるようにするためにグーグルを辞めた。
これは、政府の規制を強化しなければ高度な人工知能研究がもたらす可能性のある悲惨な結果について、さらなる注意を呼びかける初めての手紙ではありません。 3月、イーロン・マスク氏も1,000人以上の技術専門家の一人で、この技術の破壊的な可能性を理由に、高度な人工知能の研究を6か月間一時停止するよう求めた。
アルトマン氏は今月、テクノロジーの急速な進歩に伴い規制が追いつかなくなっていると議会に警告した。
アルトマン氏の最新の声明は、以前の書簡とは異なり、具体的な目標については詳しく述べておらず、議論を呼びかけているだけでした。ヒントン氏は今月初め、CNNに対し、3月の書簡には署名していないと語った。
Open Artificial Intelligence Research Center や Google などのトップ AI 研究機関の幹部らは各国政府に対し、AI の規制に迅速に行動するよう求めていますが、一部の専門家は、現在の問題の一部について、誤った議論を含むものについて議論するのは逆効果であると警告しています。情報と潜在的な偏見がすでに大混乱を引き起こしているときに、このテクノロジーが人類の生存に及ぼす将来のリスク。アルトマン氏のようなCEOは、人工知能のリスクについて公に議論することで、実際にはこの技術に存在する問題から注意をそらそうとしているのではないかとさえ信じている人もいる。
しかし、人工知能が世界の終焉をもたらすと予測する人々は、テクノロジーの発展が非常に速いため、そのリスクがすぐに人間の手の届かない問題になる可能性があるとも警告しています。超人工知能が自ら思考し推論する能力の向上は、多くの人々の予想よりも早く、ますます多くの人々を心配させています。一部の専門家は、このテクノロジーは現時点では人類の利益や幸福にならないと警告しています。
今月のワシントン・ポストとのインタビューで、ヒントン氏は、超人工知能は急速に発展しており、あと 20 年しかかからないかもしれない、今こそ高度な人工知能のリスクについて話し合う時だと述べました。
彼は言いました:「これは SF ではありません。」 (編纂者/Tu Qi)
以上が米メディア「人工知能は疫病や核戦争と同じくらい危険」の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。