ホームページ >テクノロジー周辺機器 >AI >ChatGPT と生成 AI の時代における 5 つの主要な AI リスク

ChatGPT と生成 AI の時代における 5 つの主要な AI リスク

PHPz
PHPz転載
2023-04-10 14:41:041641ブラウズ

ChatGPT と生成 AI の時代における 5 つの主要な AI リスク

長年にわたり、私たちは音声アシスタント、ソーシャルメディア、検索アルゴリズム、携帯電話の顔認識などを通じて、静かに人工知能と対話してきました。しかし、ChatGPT などの生成 AI の出現により、人工知能が最前線に立つようになりました。

突然、私たちは人工知能を本能的に目撃し始め、見聞きするものに驚きます。人工知能はもはや「いつか起こること」とは思えません。それは今、「ここにあり、世界を変える準備ができている」のです。

変化にはリスクが伴います。 ChatGPT は、AI リスク管理計画をまだ策定していない企業や管理チームにとって、衝撃的な警鐘となるはずです。この記事では、人工知能の広範な導入に伴うリスクについて検討します。

ビジネス リーダーが注意すべき 5 つの主要な人工知能リスクは次のとおりです:

1. 破壊的リスク

人工知能は、前例のない方法で既存のビジネス モデルとテクノロジーを破壊します。テクノロジー市場。最もわかりやすい例は ChatGPT 自体です。誰もが認める検索の王者としての Google の地位が、これほど突然、そして不安定な立場に挑戦されることになるとは誰が予想したでしょうか? ほんの 1 ~ 2 年前には、人工知能によって比較的スキルの低い人材への依存が打破されるだろうとほとんどの人が想像していたようです。トラック運送や顧客サービス、あるいは最悪の場合、金融取引や放射線科などの高度に構造化された仕事に混乱​​が生じる可能性があります。メディアや広告などのクリエイティブ産業、教育や財務アドバイスなどの個別サービス産業、さらには製薬の研究開発やコンピューターサイエンスなどのエリートスキル分野さえも危機にさらされていることがわかっています。

ゴールドマン・サックスによる 2023 年 3 月のレポートによると、ChatGPT のような生成型 AI は、米国の既存雇用の 19 件を含む、世界で 3 億もの雇用を削減する可能性があります。あなたの業界やキャリアに関係なく、ビジネスは今後数年間で大きな変化に直面することはほぼ確実です。過去の技術的破壊とは異なり、今回の賭けはまさに生か死かもしれません。

2. サイバーセキュリティのリスク

ハッカーやその他の妨害者から組織のデータ、システム、人材を保護することは、ビジネス リーダーにとってますます深刻な問題となっています。 2022 年には、攻撃の数は 38% 増加し、平均的な組織では 1 週間あたり 1,000 件以上の攻撃が発生し、データ侵害 1 件あたりの平均コストは 400 万ドル以上に膨れ上がりました。

人工知能はこの課題を飛躍的に悪化させるでしょう。 ChatGPT のような高度な AI が、通常は上司のみが知っている情報を使用し、さらには上司の文体を使用して、上司からのものであるかのように見える電子メールを従業員に送信する場合を想像してください。このようなフィッシング攻撃は、どれほど規模になるでしょう。

少なくとも 2019 年以来、オンライン詐欺で音声クローンなどのディープフェイクが使用されているという報告がありました。人工知能が日々進歩し、多様化するにつれて、サイバーリスク管理の問題は悪化するばかりです。

ファイアウォールやその他の今日のネットワーク防御テクノロジーがあなたを救ってくれると思うなら、考え直してください。 AI は、悪者が防御の最も弱い部分を見つけ、突破口が見つかるまで 24 時間体制で作業するのを支援します。

3. 評判リスク

ChatGPT が初めて世間の注目を集めたとき、Google 幹部は当初、その理由として「評判リスク」を挙げ、それに対抗する人工知能を直ちに立ち上げるつもりはないと述べました。 。しかし、同社は数日後にその声明を撤回し、Bardの立ち上げを発表した。 Bing やその他の生成 AI 分野での間違いや当惑は、Google の当初の懸念が十分に根拠のあるものであったことを証明しました。

国民は見守っています。 AI が価値観と矛盾するように動作すると、広報上の惨事につながる可能性があります。新興の人工知能はすでに人種差別的で女性蔑視の怪物のように振る舞い、誤認逮捕や従業員の採用における偏見を増幅させています。

人工知能は人間関係を破壊することがあります。 Forrester によると、消費者の 75% がカスタマー サービスのチャットボットに不満を感じており、30% が AI を活用したカスタマー サービスの対応が不十分だったために他のところにビジネスを移したとのことです。人工知能はまだ発展途上であり、エラーが発生しやすいものです。ただし、リスクは高いものの、多くの営利組織は AI の導入に伴う風評リスクを十分に理解していると予想されます。

4. 法的リスク

連邦政府は、人工知能の台頭によってもたらされる社会的課題に対処する準備を進めています。 2022年、バイデン政権はプライバシーと市民的自由を保護するための人工知能権利章典の青写真を発表した。 2023 年、国立標準技術研究所は、企業取締役会やその他の組織リーダーが人工知能のリスクに対処できるようにするために、人工知能のリスク管理フレームワークをリリースしました。 2022 年のアルゴリズム責任法は、依然として、広範な自動化された意思決定メカニズムに透明性をもたらすことを目的とした法案にすぎません。これは単なる連邦法です。 2022 年だけでも、少なくとも 17 の州が、顔認識、採用バイアス、習慣性アルゴリズム、その他の AI の使用事例を対象とした人工知能を管理する法案を提案しています。多国籍企業にとって、EU が提案している人工知能法案は、生体認証、心理的操作、脆弱なグループの搾取、社会信用スコアリングの使用を禁止または緩和することを目的としています。

新しい規制は間もなく、おそらく 2023 年以内に施行されます。企業はコンプライアンスを超えたリスクに直面しています。 AI を使用する製品またはサービスで何か問題が発生した場合、誰が責任を負いますか? 製品またはサービスのプロバイダー? AI 開発者? データプロバイダー? それとも法人? 少なくとも、これには透明性を提供する必要があります。新しい法律に準拠するために AI がどのように決定を下すか の透明性規定。

5. 運用リスク

AI リスクの最後の領域は、おそらく最も明白ですが、ある意味で最も危険です。従業員が誤って ChatGPT を悪用し、企業秘密が漏洩した場合はどうなりますか? AI が期待どおりに機能しない場合はどうなりますか? AI を急速に導入すると、悪影響が非常に大きくなる可能性があります。

ChatGPT は今日の高度な人工知能の最も有名な例であり、世界中で毎日テストされ、その欠点が報告されています。しかし、企業が使用する AI はこの利点を享受できない可能性があります。 AI が特定のサプライヤー、材料、製品を倍増するように指示したのにそれが間違っていた場合、どうすればよいかわかりますか?

IBM のワトソンはかつて、がん患者に対して誤った危険な治療法を提案しました。英国のティンダリス・インベストメンツは、同社のヘッジファンドAIが1日最大2000万ドルの損失を出したとして、香港の実業家チャールズ・リー氏から訴訟を起こされている。また、制御不能になったテスラが歩行者をはねて死亡させた場合、この運用上のリスクを認識し、管理するのがビジネス リーダーの仕事です。

以上がChatGPT と生成 AI の時代における 5 つの主要な AI リスクの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。