ホームページ  >  記事  >  テクノロジー周辺機器  >  PwC: ChatGPT と生成 AI における 11 のセキュリティ トレンド

PwC: ChatGPT と生成 AI における 11 のセキュリティ トレンド

王林
王林転載
2023-05-02 10:40:061274ブラウズ

最近、PwC のアナリストは、生成人工知能や ChatGPT などのツールが脅威の状況にどのような影響を与えるか、防御側にどのようなユースケースが現れるかについて、海外テクノロジー メディア VentureBeat との見解を共有しました。

彼らは、悪意のあるコードやフィッシングメールを生成する AI の機能が企業に新たな課題をもたらす一方で、脅威検出などのさまざまな防御ユースケースへの扉も開くと信じています。修復ガイダンス、Kubernetes とクラウド環境の保護など。

全体として、アナリストは、AI の悪意のある使用に対抗するために、長期的には防御的なユースケースが増加すると楽観的です。

生成人工知能が将来サイバーセキュリティにどのような影響を与えるかについての 11 の予測を紹介します。

PwC: ChatGPT と生成 AI における 11 のセキュリティ トレンド

1. 人工知能の悪意のある使用

問題となると、私たちはできること 人工知能の活用に関して、私たちは転換点にあり、すべての人、あらゆるものに影響を与えるパラダイムシフトです。 AI が国民や消費者の手に渡れば、素晴らしいことが起こる可能性があります。

同時に、悪意のある攻撃者がマルウェアや高度なフィッシングメールなどの不正な目的に使用する可能性があります。

人工知能の将来の機能と可能性については不明な点が多いため、組織が悪意のあるネットワークに対する回復力を構築するための強力な手順を開発することが重要です。

また、社会的価値観に基づいた規制も必要であり、このテクノロジーの使用は倫理的でなければならないと規定する必要があります。同時に、私たちはこのツールの「賢い」ユーザーとなり、リスクを最小限に抑えながら AI が最大の価値を提供するにはどのような安全策が必要かを検討する必要があります。

2. 人工知能のトレーニングと出力を保護する必要がある

さて、生成型人工知能には次のような機能があります。企業の変革を支援する能力は、増大するセキュリティとプライバシーに関する考慮事項に対処する方法を深く理解している企業と提携するリーダーにとって重要です。

#理由は 2 つあります。まず、企業は AI のトレーニングを保護する必要があります。なぜなら、モデルの微調整から得られる独自の知識は、ビジネスを運営し、より良い製品やサービスを提供し、従業員、顧客、エコシステムと関わる方法にとって極めて重要だからです。

第二に、企業は、生成 AI ソリューションから得られる合図や反応も保護する必要があります。これらは、企業の顧客や従業員がテクノロジーを使用して行っていることを反映しているためです。

3. 生成的な AI 使用ポリシーの策定

独自のコンテンツ、ファイル、および資産の使用を検討する場合生成 AI モデルをさらにトレーニング (微調整) して、(業界/専門) コンテキスト内のビジネス固有の機能で動作できるようにすると、多くの興味深いビジネス ユース ケースが現れます。このようにして、企業は独自の知的財産と知識を活用して、生成 AI の仕組みを拡張できます。

ここでは、セキュリティとプライバシーが重要になります。ビジネスにとって、生成 AI によるコンテンツの生成を可能にする方法は、ビジネスのプライバシーである必要があります。幸いなことに、ほとんどの生成 AI プラットフォームは最初からこれを念頭に置いており、コンテンツを安全かつ非公開でプロンプト、出力、微調整するように設計されています。

しかし、現在ではすべてのユーザーがこれを理解しています。したがって、企業は生成 AI の使用に関するポリシーを確立し、機密データや個人データが公共システムに侵入するのを防ぎ、企業内に生成 AI のための安全でセキュアな環境を確立する必要があります。

4. 最新のセキュリティ監査

生成型人工知能は、監査業務の革新につながる可能性があります。洗練された生成 AI は、シンプルでわかりやすい言語で書かれながら、特定の状況を考慮した応答を作成する機能を備えています。

このテクノロジーが提供するのは、情報とガイダンスの単一ポイントであると同時に、ドキュメントの自動化と特定のクエリに応答するデータの分析をすべて非常に効率的に行うことも可能になります。それはwin-winの結果です。

この機能により従業員のエクスペリエンスが向上し、ひいては顧客のエクスペリエンスも向上することが簡単にわかります。

5. データの衛生管理と評価のバイアスにもっと注意を払う

人工知能システムに入力されるデータは、盗難や悪用の危険があります。まず、システムに入力する適切なデータを決定することは、機密情報や個人情報が失われるリスクを軽減するのに役立ちます。

さらに、適切なデータ収集を行って、詳細かつ的を絞ったヒントを作成し、それをシステムに入力して、より価値のある成果を得ることができるようにすることが重要です。

出力を取得したら、システム内に固有のバイアスがあるかどうかを確認する必要があります。このプロセスでは、バイアスを評価するために多様な専門家チームを招集します。

コード化されたソリューションやスクリプト化されたソリューションとは異なり、生成 AI はトレーニングされたモデルに基づいているため、生成 AI が与える応答は 100% 予測可能ではありません。生成 AI が最も信頼できる出力を提供するには、その背後にあるテクノロジーとそれを活用する人々の間のコラボレーションが必要です。

6. 拡大するリスクに対応し、基本をマスターしましょう

生成型 AI が広く使用されるようになった今脅威アクターから保護するには、強力なセキュリティ対策を実装することが必要です。このテクノロジーの機能により、サイバー犯罪者はディープフェイク画像を作成し、マルウェアやランサムウェア攻撃をより簡単に実行できるようになり、企業はこれらの課題に備える必要があります。

最も効果的なサイバー対策は、依然として最も注目されていません。基本的なサイバー衛生を維持し、かさばるレガシー システムを圧縮することで、企業はサイバー犯罪者を減らすことができます。

運用環境を統合するとコストが削減され、企業は効率を最大化し、サイバーセキュリティ対策の改善に集中できるようになります。

7. 新しい仕事と責任を創出する

全体として、私は企業に対し、AI の採用ではなく、生成 AI の採用を検討することをお勧めします。ファイアウォールと耐性を構築しますが、適切な安全対策とリスク軽減が必要です。生成 AI には、仕事の進め方という点で非常に興味深い可能性があり、実際に人間の時間を分析や作成に費やすことができます。

生成型 AI の出現は、テクノロジー自体に関連する新しい仕事や責任を生み出す可能性を秘めています。また、AI が倫理的かつ責任を持って使用されることを保証する責任も生まれます。

また、情報を使用して新しいスキル、つまり作成されたコンテンツが正確かどうかを評価し識別する能力を開発する従業員も必要になります。

電卓が単純な数学関連のタスクに使用されるのと同じように、批判的思考やカスタマイズなど、生成型 AI の日常使用に適用する必要がある人間のスキルがまだたくさんあります。目的は、生成 AI の能力を最大限に発揮することです。

つまり、人間のタスクを自動化する能力という点では、表面的には脅威のように見えるかもしれませんが、創造性を解き放ち、人々が仕事で優れた能力を発揮できるようにすることもできます。

8. 人工知能を活用してネットワーク投資を最適化する

経済が不確実な時代であっても、企業は、 2023 年にはサイバーセキュリティ支出を削減するための積極的な取り組みが行われますが、CISO は投資決定がより経済的に合理的であるかどうかを考慮する必要があります。

企業は、より少ない労力でより多くのことを達成するというプレッシャーに直面しており、過度に手動によるリスクの予防と軽減のプロセスを自動化された代替プロセスに置き換えるテクノロジーへの投資につながっています。

生成 AI は完璧ではありませんが、非常に高速、効率的、一貫性があり、そのスキルは急速に向上しています。リスクの適用範囲と検出を強化するために設計された機械学習メカニズムなど、適切なリスク テクノロジーを導入することで、組織はお金、時間、人員を節約し、将来の不確実性にうまく対処し、耐えることができます。

#9. 脅威インテリジェンスの強化

#生成 AI 機能を解放する企業は、脅威を防ぐための保護に重点を置いています。マルウェア、誤った情報、または偽情報の作成と拡散を防ぐことができますが、生成型 AI がこれらの目的で悪意のある者によって使用されることを想定し、事前に行動する必要があります。

2023 年には、生成 AI を活用して社会に貢献するために、脅威インテリジェンスやその他の防御機能がさらに強化されることが予想されます。生成 AI により、効率とリアルタイムの信頼の意思決定が根本的に進歩します。たとえば、システムや情報へのアクセスは、現在導入されているアクセス モデルやアイデンティティ モデルよりもはるかに高い信頼性でリアルタイムの結論を導き出すことができます。

確かなことは、生成 AI があらゆる業界とその業界の企業の運営方法に大きな影響を与えるということです。PwC は、これらの進歩は人間主導およびテクノロジー主導で継続すると信じています。2023 年最も急速な進歩を遂げ、今後数十年の方向性を定めることになるでしょう。

10. 脅威の予防とコンプライアンス リスクの管理

脅威の状況が進化し続ける中、保健部門は - -個人情報があふれるこの業界では、脅威アクターの標的にされ続けています。

医療業界の幹部はサイバー予算を増やし、サイバー攻撃の防止だけでなく、コンプライアンス リスクの管理、患者とスタッフのデータの保護、医療費の削減にも役立つ自動化テクノロジーに投資しています。非効率なプロセスなどを排除します。

生成型人工知能が進歩し続けるにつれて、医療システムのセキュリティ保護に関連するリスクと機会も増加しており、医療業界がこの新しいテクノロジーを受け入れて能力を構築している方法が浮き彫りになっています。 . サイバー防御と回復力の重要性。

11. デジタル トラスト戦略の実装

生成 AI などのテクノロジーのイノベーションのスピードと、規制の「つぎはぎ」と制度に対する信頼の低下には、より戦略的なアプローチが必要です。

デジタル トラスト戦略を追求することで、企業はサイバーセキュリティ、プライバシー、データ ガバナンスなど、従来サイロ化されていた機能をより適切に調整できるようになり、リスクを予測しながら企業価値を解放できるようになります。

デジタル トラスト フレームワークは、その中核として、コンプライアンスを超えたソリューションを特定し、代わりに組織と顧客間の信頼と価値交換を優先します。

###

以上がPwC: ChatGPT と生成 AI における 11 のセキュリティ トレンドの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。