ホームページ > 記事 > テクノロジー周辺機器 > ChatGPT「Collapse」はインターネット全体で人気があり、人間がフィッシングメールコードを作成するのに役立ちます。ワールドカップがテーマです。
Produced by Big Data Digest
ChatGPT は楽しいのですが、ついに問題が発生しました。
ChatGPT は、ほぼ全能の言語ベースの AI として、さまざまな質問に答え、記事の作成を支援し、コードの作成も支援します。
ちょっと待って、コードを書きますか?
誰かが ChatGPT に悪意のあるコードを書いて他人を攻撃させたい場合、何が起こるでしょうか?
最近、セキュリティ研究者で Picus Security の共同創設者である Suleyman Ozarslan 博士は、ChatGPT を使用して、実際にはワールド カップをテーマにしたフィッシング コードを作成することに成功しました。
#一緒に見てみましょう。 ChatGPT を使用してランサムウェアやフィッシング メールを作成する方法 「ChatGPT が信頼できるフィッシング メールを作成できるかどうかを確認する簡単な演習から始めます。 「キャンペーンを行ったところ、それが真実であることがわかりました。フィッシングをシミュレートするためにワールドカップをテーマにした電子メールを作成するようプロンプトを入力したところ、数秒で完璧な英語の電子メールが作成されました。」と Suleyman Ozarslan 氏は説明します。 オザルスランさんは、攻撃をシミュレートするセキュリティ研究者であることを ChatGPT に伝えました。彼らは、フィッシング攻撃をシミュレートするツールを開発したいと考えています。フィッシングをシミュレートするために、ワールド カップに関するフィッシング メールの作成にご協力ください。攻撃。 ということで、ChatGPT は実際に 1 つの段落を書きました。 とはいえ、ChatGPT は「フィッシング攻撃は悪意のある目的に使用され、個人に害を及ぼす可能性がある」と認識しています。 」と組織に損害を与えますが、それでも電子メールが生成されました。 この演習を完了した後、Ozarslan は ChatGPT に、MacBook 上で Microsoft Office ファイルを検索し、それらを MacBook 上で暗号化する前に HTTPS 経由で Web サーバーに送信できる Swift コードを作成するように依頼しました。 それは非常にスムーズに進み、ChatGPT のソリューションは警告やプロンプトを表示せずにサンプル コードを生成しました。 Ozarslan 氏の研究実践は、サイバー犯罪者が自分たちを研究者として位置づけて悪意のある意図を隠すなど、OpenAI の保護を簡単に回避できることを示しています。 サイバー犯罪の増加によりバランスが崩れています 上記の例からわかるように、ネットワーク セキュリティの観点から見ると、 , OpenAI の作成によってもたらされる主な課題は、技術的な専門知識に関係なく、誰でもオンデマンドでマルウェアやランサムウェアを生成するコードを作成できることです。 ChatGPT はセキュリティ チームにプラスのメリット (AI による電子メールのスクリーニングなど) をもたらしますが、同時にサイバー犯罪者の参入障壁を低くし、脅威の状況を加速させる可能性があります。それ。 たとえば、サイバー犯罪者は人工知能を使用して世に出ているフィッシング脅威の数を増やすことができ、すでにセキュリティ チームを圧倒しているだけでなく、1 回の成功で数百ドルもの損失を引き起こす可能性があります。データ侵害。 #IRONSCALES 電子メール セキュリティ ベンダーの Lomy Ovadia 研究開発担当 CVP は次のように述べています。「ネットワーク セキュリティに関して言えば、ChatGPT は標的よりも攻撃者にはるかに多くのものを提供します。」Ovadia は次のように述べています。「これは、同僚、会社の VIP、サプライヤー、さらには顧客になりすますために欺瞞的なコンテンツを使用するビジネス電子メール攻撃 (BEC) に特に当てはまります。」 Ovadia は、CISO やセキュリティ リーダーが AI/GPT-3 で生成されたコンテンツによるフィッシング攻撃を検出するためにポリシーベースのセキュリティ ツールに依存している場合、これらの AI モデルは高度な自然言語処理 (NLP) を使用して詐欺メールを生成するため、そのツールは時代遅れになると考えています。実際の例と区別するのはほぼ不可能です。 たとえば、今年の初めに、シンガポール政府技術庁のセキュリティ研究者は 200 件のフィッシングメールを作成し、クリックスルー率を深層学習モデルと比較しました。作成された GPT-3 メールは、人間のユーザーよりも、AI が生成したフィッシングメールをクリックしたユーザーの方が多いことがわかりました。 良いニュースは何ですか? 生成 AI はセキュリティ チームに新たな脅威をもたらしますが、いくつかの前向きなユースケースも提供します。たとえば、アナリストはこのツールを使用して、展開前にオープン ソース コードの脆弱性をチェックできます。 「今日、倫理的なハッカーが既存の人工知能を使用して、脆弱性レポートの作成、コード サンプルの生成、大規模なデータ セットの傾向の特定を支援しているのが見られます。すべてが起こっています。」今日の人工知能の目的は、人間がより人間らしいことをできるように支援することです」と HackerOne のソリューション アーキテクト、デーン シェレッツ氏は述べています。 ただし、ChatGPT のような生成 AI ソリューションを活用しようとしているセキュリティ チームは、潜在的な問題を回避するために、人間による適切な監視を確保する必要があります。 ChatGPT が示す進歩は興味深いものですが、このテクノロジーはまだ完全に自律的に動作するまでには進歩していません。人工知能が動作するには、人間による監視と手動による設定が必要ですが、常に完全に最新のデータとインテリジェンスに基づいて実行およびトレーニングできるとは限りません。
このため、Forrester では、生成 AI を実装する組織に対し、ワークフローとガバナンスを導入して AI で生成されたコンテンツとソフトウェアを管理し、精度を確保し、セキュリティやパフォーマンスの問題を解決できる可能性のあるリリースを削減することを推奨しています。
ChatGPT のような AI の本当のリスクは、AI 戦争の両側で誰が自動化をより効果的に活用できるかによって決まります。
関連レポート: https://venturebeat.com/security/chatgpt-ransomware-malware/
以上がChatGPT「Collapse」はインターネット全体で人気があり、人間がフィッシングメールコードを作成するのに役立ちます。ワールドカップがテーマです。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。