ホームページ >テクノロジー周辺機器 >AI >2023 年に人工知能が組織をどのように強化できるか
2022 年末に ChatGPT がリリースされて以来、インターネットはさまざまな悲観的または楽観的な感情で満ちています。好むと好まざるにかかわらず、人工知能が開発チームにやって来ます。 AI 製品を開発したり、コードを記述するボットの開発に AI を採用したりする予定がない場合でも、手動で作成したソース コードの構築、テスト、実行に使用されるツールやプラットフォームに AI を統合できます。
人工知能ツールは特有のリスクをもたらします。さらに、これらのリスクは、かつて人間の脳を必要としていたタスクの自動化による生産性の大きな利点を相殺する可能性があります。これらのリスクは、AI のトレーニング、構築、ホスト、使用方法から発生しますが、そのすべてが現在開発者によって使用されている他のソフトウェア ツールとは異なります。リスクを理解することはリスクを管理するための第一歩であり、今後の AI ツールに関連する潜在的なリスクを理解するのに役立つように、AI オンボーディング プロセスの一部として数えられる面接の質問をいくつか作成しました。
これらの質問は、AI の種類や使用目的に関係なく尋ねるべきです。
#1. 選択した人工知能サーバーはどこでホストされますか?
# 現在、現代の人工知能は、今日の見出しで目にする驚くべきタスクを実行するために、特殊で高価なハードウェアを必要としています。新しいデータセンターを取得する予定がない限り、AI ロボットはリモートで動作し、リモート アクセスやオフサイト データ ストレージを使用するリモートの人間の作業者と同じセキュリティ上の考慮事項が必要になります。
コードが境界を越えたときの IP 損失を防ぐために、どのような保護が実施されていますか?スマート TV から自動車に至るまで、あらゆるものがメーカーに使用状況データを報告しています。ソフトウェアを改善するためにこのデータを使用している企業もあれば、広告主に販売している企業もあります。 AI ツールがその主な使命のためにソース コードやその他のプライベート データをどのように使用または処理するかを正確に理解します。
#2. あなたの入力は将来の人工知能のトレーニングに使用されますか?
#AI モデルの継続的なトレーニングは、所有者およびモデルのトレーニングにデータが使用される人々にとって、ますます関心が高まる領域になります。たとえば、所有者は、広告主が AI ボットを顧客に有利な方向に偏らせないようにする必要があるかもしれません。オンラインで作品を共有するアーティストは、AI 画像生成ボットによってスタイルをコピーされており、元の作者のアイデンティティが失われたり盗まれたりすることを懸念しています。
#3. 結果はどの程度正確ですか?
ChatGPT の最も有名な欠点は、結果が不正確であることです。偽りのものを真実として自信を持って主張します。これを人工知能の「錯覚」といいます。 AI がどこでどのように幻覚を起こすかを理解することは、幻覚が起こったときに対処するのに役立ちます。
さらに、AI の所有者と開発者は、独自のセキュリティ上の懸念を抱えることになります。こうした新たな懸念には、AI トレーニング モデルに対する脅威が含まれます。これらの脅威は、その結果を損なったり、モデルの仕組みに関する機密情報を漏らしたりする可能性があります。さらに、AI モデルは、安全に構築する必要がある API、Web、モバイル、その他のアプリケーションと連携する必要があります。
開発者は、ソフトウェア開発中に導入されたリスクを管理するために AI セキュリティ スキャナーなどの AI ツールを使用する場合、具体的な質問をする必要があります。
#4. AI ツールはこのユースケースに最適ですか?
#AI が何が得意で、何が不得意かを理解することが重要です。タスクはさらに、「学習したルールに基づいて意思決定を行う」または「学習したルールを通過するコンテンツを作成する」に分類でき、AI はこれをより適切に実行できます。問題が逸脱すればするほど、AI のパフォーマンスは低下します。
ツールがコンテンツをキャプチャしない場合、またはコンテンツが存在しないかのような錯覚を引き起こす場合、どのような安全策が講じられていますか?
プロセスに単一障害点、特に幻覚を引き起こす可能性のある障害点を決して導入しないでください。リスク管理には、従来の多層防御の実践または「スイスチーズ」のアプローチに依存します。つまり、1 つの層が問題を見逃しても、次の層がそれをキャッチします。
レビューツールの結果を監視するには何が必要ですか?この問題は実際には、新しいボトルに入った古いワインにすぎません。従来のジャーナリング ガイドラインは 2 つの部分に分かれています。最初の部分は重要なイベントのデータを取得することであり、2 番目の部分は監査ログです。 AI がさらに成熟し、その欠点が理解または軽減されるまで、人間はワークフローに不可欠な存在であり続けるでしょう。
ソースコードを書くためにChatGPTを「雇う」開発者が増えています。暫定レポートによると、ChatGPT は多くのプログラミング言語でソース コードを作成でき、一般的で公に議論されているすべての言語に堪能です。ただし、このベータ版のトレーニングとモデルの制限により、生成されるコードは必ずしも完璧であるとは限りません。多くの場合、ソフトウェアの動作方法を変更する可能性のあるビジネス ロジックの欠陥、ソフトウェアの異なるバージョンをマージする可能性のある構文エラー、その他の人為的と思われる問題が含まれています。言い換えれば、ChatGPT はジュニア開発者です。このジュニア開発者が作成したコードを使用する場合は、その管理方法を考慮する必要があります。
誰がその管理者となり、コードが機能し、最適化可能で、高品質であり、セキュリティ基準を満たしていることを保証しますか?ジュニア開発者は上級開発者からの指導が必要です。コードのすべての行をテストする必要があり、一部は修正する必要があります。ただし、暫定レポートによると、この校正プロセスは、コードを最初から書くよりも速くて簡単です。
#5. トレーニング コードをコード ベースに挿入またはリミックスしていますか?
#さらに陰湿な脅威は、GitHub Copilot のような AI ボットが、トレーニング データからコードのブロックを完全にコピーするソース コードを生成することがあることです。これには、著作権リスクを確実に管理するための盗作防止ツールが必要です。
#6. ロボットはトレーニング データをどこから取得しますか?
#人工知能モデルの良さは、そのトレーニング データによって決まります。ボットが古いコードまたは不正確なコードでトレーニングされた場合、古くて不正確な結果も生成されます。
#7. エンジンはどこでホストされていますか?
#同様に、ソース コードを分析する人工知能ロボットは、ソース コードを処理施設に持ち込む必要があります。データが会社を離れた後にどのように保護、使用、処理されるかには特に注意してください。
ChatGPT の 12 月リリースは、ソフトウェア開発の新時代の到来を告げます。変化に打ちのめされるのではなく、変化に適応することが重要です。これらの新しいツールを導入する際は、状況が変化すればするほど、変わらない原則が 1 つあることを理解してください。それは、セキュリティ インシデントによって地面に叩きつけられるよりも、セキュリティ インシデントを防ぐ方が良いということです。
出典: www.cio.com
以上が2023 年に人工知能が組織をどのように強化できるかの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。