ホームページ  >  記事  >  テクノロジー周辺機器  >  生成的 AI の探求を安全かつ確実に進めるにはどうすればよいでしょうか?

生成的 AI の探求を安全かつ確実に進めるにはどうすればよいでしょうか?

王林
王林転載
2023-10-11 20:45:09748ブラウズ

現在、生成 AI の探求と実装は、必然的にセキュリティ問題と絡み合っています。最近のデータレポートによると、ビジネス リーダーの 49% がセキュリティ リスクが主要な問題になっていると考えており、ビジネス リーダーの 38% が GPT ツールの使用方法を理解していないことに起因する人的エラー/人的データ漏洩を最大の課題として挙げています。

これらの懸念は正当ですが、早期導入者にとってのメリットは、探求を妨げることによる潜在的な影響をはるかに上回るでしょう

この記事では、チーム メンバーと顧客がなぜセキュリティを扱う必要がないのかを理解できるように支援します。後付けとして、ただし AI をビジネスと統合するための前提条件として、この分野で作業するための一連のベスト プラクティスを検討します

生成的 AI の探求を安全かつ確実に進めるにはどうすればよいでしょうか?

セキュリティ戦略から始めます

企業は、AI アプリケーションによってもたらされる新たなセキュリティ リスクと緊急性を認識しています。前述の統計レポートによると、ビジネス リーダーの 81% が、自社では生成 AI を中心としたユーザー ポリシーを導入している、または開発中であると回答しましたが、このテクノロジーと新たなアプリケーションの急速な発展により、ユースケースが常に出現しています。 、いつでも発生するリスクや課題に対処できるよう、ポリシーの内容も常に更新する必要があります。

探索を加速しながらセキュリティ リスクを最小限に抑えるには、当然のことながら、テストと学習の取り組みに「ガードレール」を設定する必要があります。また、関連する政策を策定する際には、決して孤立して進めるのではなく、企業内の各部門の代表者の意見を十分に聞き、各機能単位が生成型人工知能をどのように利用するか、あるいは利用できるかどうかを検討する必要があります。彼らが直面するセキュリティ リスク

つまり、さまざまな部門による AI テクノロジの探求は、大まかに禁止されるべきではありません。純粋な恐怖から全社的な禁止を課した場合、競合他社に市場シェアを食い荒らされるのではないかと心配する必要はありません。万里の長城を自ら破壊することになります。

現場担当者に重点を置く

生成 AI を安全に使用できるようにするには、まず一般の開発者に権限を与える必要があります。たとえば、大規模な言語学習モデルである Insight GPT のプライベート インスタンスへのフル アクセスを与えることができます。これは、潜在的なユースケースを発見するのに役立つ一方で、生成 AI サービスを継続的に改善するために出力に基づいてストレス テストを実行することもできます。

私たちはすぐに、倉庫チームは、注文の配送効率を向上させる方法を見つけました。この特定のケースでは、メンバーは、ワークロードの一部を自動化するために SAP でスクリプトを作成することを要求しました。この試みは効果的ではありますが、保護が正しく設定されていない場合、簡単に事故につながる可能性があります。たとえば、スタッフ メンバーが誤って注文に存在しないトランザクションを実行した場合でも、その後の自動化された手順は中止されません

民間探査を促進し、リスクを可能な限り制限するプロセスでは、次のことを行う必要があります。次の措置を講じます。 検討 委員会は明確なガイドラインを作成し、リスク評価を実施し、AI システムに関する透明性を高める必要があります。同時に、適切なトレーニングを実施して、責任ある方法で AI を業務シナリオに適用する方法、特に倫理、偏見、人間の監督、データ プライバシーなどの重要な問題に対処する明確な方法について従業員を教育する必要があります。さらに、社内のイノベーター グループ内でチーム メンバーが発見や学んだ教訓を共有することを奨励する社内フォーラムを設定する必要があります。

「幻覚」のリスクを軽減する

なぜ生成 AI は危険なのか、重要な理由は、時折「幻覚」を引き起こすことです。 Insight レポートによると、ビジネスリーダーが最も懸念している共通のテーマは、幻覚がどのようにビジネス上の不適切な意思決定につながる可能性があるかということです。ただし、幻覚によって引き起こされるリスクは軽微なものから重篤なものまでさまざまであり、具体的な影響はシナリオごとに異なることがよくあります。

GPT ツールは客観的な現実と矛盾する結果を出力することは避けられませんが、そのような誤った答えは、多くの場合、表現レベルでの混乱に属することがすぐにわかりました。たとえば、初期のテストでは、エディ ヴァン ヘイレンがどの曲とコラボレーションしたかを Insight GPT に尋ねました。正解は「Beat It」ですが、答えは「Thriller」です。しかし、別の見方をすれば、「Beat It」は確かにアルバム「Thriller」の収録曲なので、その答えは不合理ではありません。

これにより、AI が生成したコンテンツを効果的に管理および監督し、幻覚問題のリスクを軽減できるようになります。同時に、AI システムのトレーニングと監視を強化して、AI システムが生成するコンテンツが関連するポリシーや基準に準拠していることを確認する必要もあります。このような手段を通じてのみ、非常に主観的なワークロードを扱うときに発生する可能性のある問題により適切に対処できるようになります。

現時点では、生成 AI 業界はまだ初期段階にあり、データ漏洩、情報エラー、偏見、その他のリスクによる潜在的な脅威を軽減しながら、責任ある安全な適用方法を見つけ出すことができれば、明確な技術的優位性を確立できるでしょう。 。企業は、自社の AI ポリシーが業界の変化に確実に対応し続け、コンプライアンスを維持し、幻覚の問題を軽減しながら、ユーザーの信頼を徐々に構築する必要があります。

以上が生成的 AI の探求を安全かつ確実に進めるにはどうすればよいでしょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。