ホームページ >テクノロジー周辺機器 >AI >企業のセキュリティに注意する: Samsung は従業員による ChatGPT 生成 AI の使用を禁止し、企業にセキュリティ問題に注意を払うよう促しています。

企業のセキュリティに注意する: Samsung は従業員による ChatGPT 生成 AI の使用を禁止し、企業にセキュリティ問題に注意を払うよう促しています。

WBOY
WBOY転載
2023-05-08 15:16:091572ブラウズ

三星禁止员工使用ChatGPT 生成式AI走进企业需要把好安全关

最新の調査レポートによると、70% 以上の企業が生成 AI の導入に関してまだ「探索」段階にあります。これは、大規模な言語モデルを開発する AI 開発者が、企業ユーザーの満足度を維持するために、自社の製品に適切なデータ セキュリティ メカニズムを備えていることを確認する必要があることを意味します。

最近、Samsung などの大企業は、データ セキュリティへの懸念から従業員による ChatGPT などの AI ツールの使用を禁止し始めています。あるアナリストは、マイクロソフトのようなベンダーがこの技術を成功させたいのであれば、企業に合わせたソリューションを設計し、提供する必要があると述べた。

三星禁止员工使用ChatGPT 生成式AI走进企业需要把好安全关

サムスン、従業員に ChatGPT の使用を禁止、生成 AI はデータ漏洩のリスク

先月ソースコードが漏洩したため、サムスンは同社の従業員は、チャットGPT、Bing、GoogleのBardなどのAIツールの使用を避けるよう命じられた。これまでにも、他のテクノロジー企業が同様の声明を発表し、生成 AI を使用したデータ セキュリティについて懸念を表明していました。

OpenAI は最近、エンタープライズ ユーザー向けの ChatGPT プラットフォームの特定バージョンを開発していることを確認しました。このプラットフォームでは、デフォルトでエンタープライズ ユーザーが ChatGPT 再トレーニングでの会話を使用することが禁止されています。これが大企業顧客のセキュリティ上の懸念に対処するのに十分であるかどうかは不明ですが、これらの企業の幹部がこのテクノロジーの導入に熱心であることは明らかです。

Gartner が 2,500 人の業界幹部を対象に行った調査によると、回答者の 45% が ChatGPT が AI への投資を促進していると信じており、回答者の 70% が自分の組織が生成型 AI を導入する方法を研究していると回答しています。回答者はすでに試験運用段階または運用段階にいます。

Gartner のバイスプレジデント アナリスト、フランシス カラムージス氏は次のように述べています。「生成 AI の導入に対するユーザーの執着は衰える兆しがありません。多くの業界組織が、生成 AI ソリューションにどれだけの資金を投資するか、どの製品を決定するかを急いでいます。

最も分かりやすいのは、回答者の 68% が生成 AI のメリットがリスクを上回ると信じており、そう信じているのはわずか 5% でした。このテクノロジーを使用するリスクがメリットを上回ります。

生成 AI への投資が深まり、データ セキュリティへの影響がより明らかになるにつれて、Samsung が直面しているセキュリティのジレンマと同様に、これらの状況も変化する可能性があります (同社は独自の AI モデルを構築しています)。

一般的な傾向として、生成 AI を導入するよりも回避するほうが難しいかもしれないということです。

世界経済の減速とテクノロジー業界の大量解雇にもかかわらず、回答者のわずか 17%記者らは、コストの最適化がAIに投資する主な理由である一方、顧客体験が最も重要な焦点であると述べた。

Microsoft のような企業が Copilot を通じて CRM や Office 365 スイートに AI を導入し、Salesforce が製品スイート全体にチャットボット テクノロジーを追加しているため、生成 AI の採用を回避することは、導入することより難しいかもしれません。

Gartner のバイスプレジデント兼アナリストであるアビバ・リータン氏は、企業は公開されている大規模な言語モデルを使用する際に複数のリスクに直面するが、リスクを軽減する方法はあると述べ、自動フィルタリング機能を確保するなどの方法があると述べました。誤った情報、幻覚、不必要な事実情報の出力。

同氏は、企業は大規模言語モデルに送信される企業機密情報が危険にさらされないように、大規模言語モデルベンダーが検証可能なデータガバナンスとセキュリティ保証を提供することを保証する必要もあると述べた。また、あらゆる使用が GDPR 規制や EU AI 法などの法律に準拠していることを保証するための透明性も必要です。

彼女は次のように説明しました。「これらの要件が満たされるまで、従業員のチャットへのアクセスを制限する (個人用デバイスがあるため強制することは不可能) か、測定された実験的使用を許可するなど、慎重な企業が見受けられます。機密データを大規模な言語モデルに送信することを回避します。」セットでトレーニングされたパブリック モデルの利点を活用できます。 Litan 氏は、「OpenAI とサードパーティが開発した大規模な言語モデルの大きな価値は、それらを訓練するための大量のデータと、それらを実行するために必要な巨大で複雑なスーパーコンピュータの能力にあります。企業には再構築するためのリソースがまったくありません」と述べています。

OpenAI、Microsoft、およびこのテクノロジーの導入を希望するベンダーにとっての解決策は、共有セキュリティ責任協定を通じてテクノロジー ツールを作成することです。機密データが漏洩した場合、ベンダーは責任を負うべきであり、それが前進する道です。

以上が企業のセキュリティに注意する: Samsung は従業員による ChatGPT 生成 AI の使用を禁止し、企業にセキュリティ問題に注意を払うよう促しています。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。