ホームページ  >  記事  >  テクノロジー周辺機器  >  GPTはクールになるでしょうか?バフェット氏、マスク氏ら大物著名人が活動停止を要求

GPTはクールになるでしょうか?バフェット氏、マスク氏ら大物著名人が活動停止を要求

WBOY
WBOY転載
2023-05-14 09:49:05954ブラウズ

ChatGPT は急速に世界中に「普及」し、間違いなく人工知能の分野で注目を集める「スター製品」になりました。学術詐欺、ハッカー兵器の作成、ユーザーの漏洩など、機密性の高いチャット情報や一連のネガティブなニュース。この時点で、社会はChatGPTのような人工知能テクノロジーを再検討し始めています。

GPTはクールになるでしょうか?バフェット氏、マスク氏ら大物著名人が活動停止を要求

これまで産業分野で活躍してきたインテリジェントロボットと比較すると、人間の代わりにできるのは複雑で機械的で危険な肉体労働だけです。 、ChatGPT人工知能に似ています インテリジェントテクノロジーは、より強力な対話性、柔軟性、優れた「独立した思考能力」を備えており、人工知能の分野に対する社会の理解を再形成しました。現在、テクノロジー大手がリリースした人工知能製品は、執筆、プログラミング、絵画などのさまざまな種類の産業に統合され、新たな技術変化を引き起こしています。

Chat GPT のような人工知能テクノロジーが完全に開発されれば、社会に十分に貢献し、人類に利益をもたらすことができることは疑いの余地がありません。同時に、Chat GPT 人工知能テクノロジーは「諸刃の剣」でもあり、そのセキュリティ上の問題、コンプライアンス上の問題、社会人材の仕事配分への影響が多くの業界リーダーや国の注目を集めています。

ChatGPTに類似した人工知能の研究開発の検討を求める著名人も多数

#ChatGPTに類似した人工知能技術が社会全体を巻き起こすという「幻想」に浸るとき、第 4 次産業革命の影響を受け、テクノロジー コミュニティの多くの偉い人たちが相反する意見を出し、ChatGPT のような人工知能テクノロジーの急速な発展に対して懸念を表明しました。

バフェット氏は、人工知能技術が社会に有益であるかどうかについて疑問を表明しました。

最近、投資業界のゴッドファーザーであるバフェット氏は、ChatGPT に似た人工知能の急速な発展についての考えを語りました。メディアとのインタビュー。バフェット氏は記者団に対し、人工知能技術が技術的能力の点で確かに信じられないほどの進歩を遂げていることに疑いの余地はないが、社会全体への影響を考慮すると、人工知能技術の開発が進んでいることを裏付ける大規模な実験結果は現時点ではないと述べた。知能は人類にとって有益であり、この観点から、人工知能の開発は慎重かつ合理的でなければなりません。

バフェット氏の懸念は無理からぬものではありません。ChatGPT の急速な普及により、その背後にあるセキュリティ、コンプライアンス、その他の問題が隠蔽されてきました。人間がこの種のテクノロジーを直接経験したのは、それが先進的で効率的であるということだけです。彼らはその潜在的な脅威を理解していません。

GPTはクールになるでしょうか?バフェット氏、マスク氏ら大物著名人が活動停止を要求

メディアによって現在公開されている情報から判断すると、一部のハッカーが ChatGPT などの人工知能製品を使用して悪意のあるコードを作成し、 ChatGPT 自体のセキュリティ問題は言うまでもなく、フィッシング攻撃メールも含まれます。 (以前、Samsung では ChatGPT での従業員のトレーニング データによる情報漏洩、ChatGPT ユーザーのチャット情報リストの漏洩などがありました)。

マスク氏、より強力な人工知能システムのトレーニングの中止を共同で呼びかけ

バフェット氏が人工知能技術の開発について懸念を表明する前に、テスラ創設者のマスク氏は数千人のテクノロジー関係者と共同で声明を発表した。公開書簡では、GPT-4より強力な人工知能システムのトレーニングの一時停止を求めている。

3月29日、マスク氏は行動を起こし、何千人もの業界や学術界の著名人が署名した公開書簡に署名し、すべての人工知能研究室に対し、GPT-4よりも強力になるために少なくとも6か月間トレーニングを中止するよう求めた。セキュリティ プロトコルを開発および強制する AI システム。

この動きに関してマスク氏は、ChatGPTが実証する強力な技術的能力を考慮すると、そのセキュリティ問題を監視する必要があると述べた。さらに、イーロン・マスク氏は、人工知能には強力な能力があるが、同時に大きなリスクも伴う、間違いなく両刃の剣であると繰り返し強調しており、人工知能技術は将来人類文明が直面する最大のリスクの一つであるとさえ悲観的に信じている。 。

GPTはクールになるでしょうか?バフェット氏、マスク氏ら大物著名人が活動停止を要求

バフェット氏とは異なり、マスク氏や他の人々は人工知能技術の開発に対して「否定的な」態度をとっているということは言及する価値があります。元世界大富豪のCi氏はこの点については比較的楽観的で、開発を中止しても問題を完全に解決できるわけではなく、どの方法を採用するかを検討し、人工知能技術の開発を合理的に利用することが最善の解決策であると述べた。

各国はChatGPTのような人工知能技術の開発を真剣に検討しています

多くの映画、テレビシリーズ、小説では、人工知能ロボットが社会に奉仕し、人類に利益をもたらすと想像されており、安全性にも疑問を抱いています。人工知能の信頼性、忠誠心、そして人間に代わって世界を統治するかどうか。ChatGPT のような製品は、この考えを徐々に現実に近づけています。人間が人工知能の発展という「両刃の剣」に真の意味で直面し始めるとき、セキュリティ、コンプライアンス、その他の問題について真剣に検討する必要があります。

イタリアはChatGPTのセキュリティ問題に対して「第一弾」を発射した。

10 日以上前、イタリア政府は、OpenAI がイタリアのユーザーの大量の個人データを違法に収集し、ユーザーの年齢を確認するメカニズムを確立していなかったという理由で、イタリアでの Chat GPT の運営を禁止しました。 ChatGPT ユーザーは、未成年者が違法なマテリアルにアクセスするのを防ぎます。数日間のバッファリングの後、イタリアのデータ保護機関は若干の譲歩をし、一連の要件を OpenAI に提案し、それが満たされればイタリアは ChatGPT の国内での運営継続を許可することになる。

現時点で、イタリアは ChatGPT セキュリティ コンプライアンス問題に対して「最初の攻撃」を開始しました。

イタリアが実施したChatGPTのセキュリティ対策は欧州諸国の注目を集めており、現在、欧州諸国はChatGPTと同様の人工知能技術に対して厳しい制限措置を講じる必要があるか検討している。その中で、スペインのデータ保護庁は、EUプライバシー規制当局に対し、ChatGPTの使用に関するプライバシーコンプライアンス問題を評価するよう要請した。

その直後、ドイツの規制当局もChatGPTの使用禁止を発表し、フランス、アイルランド、スペインなどの欧州諸国もAIチャットボットの監督強化を検討し始めた。

米国は EU を厳しくフォローし、人工知能の規制を計画している

イタリアは一石二鳥で ChatGPT の監督を強化したが、これは EU 諸国の人工知能に対する懸念を引き起こしただけではない. 心配は海の向こうの米国にも影響を及ぼします。

アメリカ現地時間の4月11日、「ウォール・ストリート・ジャーナル」は突然、ChatGPTなどの人工知能技術がもたらす安全保障上の脅威をアメリカ社会が懸念しているため、バイデン政権が政権を交代したとのニュースを報じた。そうしたツールを制御する必要があるかどうかを検討し始めています。

これを受けて、米国商務省は4月11日、関連する説明責任措置について正式に意見を求めた(意見募集期間は、潜在的なリスクを伴う新しい人工知能モデルのリリースを含めて60日間である)。この動きは、米国における人工知能技術の潜在的な規制の第一歩とみなされています。

ChatGPT のような人工知能技術の開発を規制するルールを早急に定める必要性について、米国商務省傘下の機関である国家電気通信情報局の局長、アラン・デイビッドソン氏は次のように指摘しました。人工知能技術は初期段階の「先進」にすぎず、政府はこの技術を利用して犯罪活動を行う潜在的な犯罪者を考慮する必要があるため、必要な境界線を設定する必要があります。

中国政府は人工知能分野の管理措置を発動しました

米国だけでなく我が国も人間知能分野の研究開発を強化し始めています。中国サイバースペース局は4月11日、生成人工知能サービスの健全な発展と標準化された適用を促進することを理由に、「生成人工知能サービスの管理措置(コメント草案)」(以下、「管理措置」という)を発表した。インテリジェンス技術。 「管理措置」には計21項目が含まれており、このうち「生成型人工知能」には、アルゴリズムやモデル、ルールに基づいて文字、画像、音声、動画、コードなどのコンテンツを生成する技術が含まれるという。

「行政措置」は、人工知能技術の応用によって生成された情報に対する責任の分担を制限し、生成型人工知能製品を使用してチャットやテキストなどのサービスを提供する組織および個人が、画像および音声の生成 (プログラマブル インターフェイスやその他の方法の提供を含む) により、他者が独自にテキスト、画像、音声などを生成できるようになり、製品によって生成されたコンテンツの製作者が責任を負います。に関与し、個人情報処理者の法的責任を負い、個人情報保護義務を果たします。

さらに、人工知能製品の製造業者も要件を提示しており、「行政措置」では、製品を市場に投入する前に、「安全性評価に関する規制」に従って国家に報告する必要があると規定されています。サイバーセキュリティ・情報化部門は、「インターネット向けアルゴリズム勧告の管理に関する規則」に従って、セキュリティ評価を申請し、アルゴリズムの申請、変更、取り消しの申請手続きを実行するものとします。情報サービス」。

ChatGPT のような人工知能製品について社会レベルで話すとき、彼らはメーカーが人工知能製品をトレーニングするために使用するデータについてより懸念しています。この点は「管理措置」でも強調されており、次のように明確に指摘されています。生成型人工知能向けのスマート製品の事前トレーニングおよび最適化されたトレーニング データは、次の要件を満たす必要があります。

  • (1) 「人民サイバーセキュリティ法」などの法令の要件を満たす必要があります。中華民国」;
  • (2) ) 知的財産権を侵害する内容は含まれていません;
  • (3) データに個人情報が含まれる場合、個人情報主体の同意が必要です法律および行政規制に準拠するその他の状況;
  • (4) ) データの信頼性、正確性、客観性および多様性を確保できる;
  • (5) その他の規制要件生成人工知能サービスに関する国家サイバースペース部門。

最後に、「管理措置」では、運用中に発見され、本措置の要件を満たさないユーザーによって報告された生​​成コン​​テンツについては、コンテンツ フィルタリングなどの措置を講じるほか、次のことを強調しています。 3 か月以内にモデルを最適化する トレーニングやその他の方法で再生を防止します。

現在、多数のトレーニング反復を経て、ChatGPT のような人工知能技術は急速に発展していますが、それどころか、各国の既存の法制度は、明らかに ChatGPT のような人工知能技術を監督するには不十分です。したがって、人工知能技術を規制するための規制が策定されており、その開発はすべての国が解決する必要がある主要な問題となっています。

結論

コンピューティング技術は急速に発展しており、人工知能技術革命の波は避けられず、将来的には一部の「人工知能」が置き換えられることは避けられません。さらに、ChatGPTのような人工知能技術の多数の応用は、データ漏洩、ネットワークハッキングツールの最適化、大規模詐欺、AI架空写真などのセキュリティ問題を確実に引き起こすでしょう。

しかし、上記のいずれの要因も、人工知能技術の研究開発を中止する言い訳にはなりません。人類は人工知能の到来を恐れて立ち向かうべきではありません。私たちは常に「人間」が存在することを忘れてはなりません。将来的には、技術の最適化と規制の策定を継続的に行うことで、「デリバティブ」による被害を最小限に抑えることができると考えています。

以上がGPTはクールになるでしょうか?バフェット氏、マスク氏ら大物著名人が活動停止を要求の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。