ホームページ >テクノロジー周辺機器 >AI >ChatGPT はネットワーク セキュリティの分野における両刃の剣です
ChatGPT は、コード開発やデバッグなどの幅広いユースケースを支援するように設計された AI 主導のプロトタイプ チャットボットです。その主な魅力の 1 つは、ユーザーが会話形式でチャットボットと対話し、ソフトウェアの作成から複雑なトピックの理解、論文や電子メールの作成、顧客サービスの改善、さまざまなビジネスまたは市場シナリオのテストに至るまで、あらゆる支援を受けることができることです。しかし、より暗い目的にも使用できます。
OpenAI が ChatGPT をリリースして以来、多くのセキュリティ専門家は、サイバー犯罪者が AI チャットボットを使用してマルウェアを作成し、その他の悪意のある活動を実行し始めるのは時間の問題だと予測しています。すべての新しいテクノロジーと同様、十分な時間と動機があれば、誰かがそれを活用する方法を見つけるでしょう。ほんの数週間後、その時が来たようでした。サイバー犯罪者は、OpenAI の人工知能チャットボット ChatGPT を使用して、ハッキング ツールを迅速に構築し始めています。詐欺師らはまた、若い女性を装ってターゲットをおびき寄せるチャットボットを構築する ChatGPT の能力もテストしており、実際、チェック・ポイント・リサーチ (CPR) の研究者らは、地下には少なくとも 3 人のブラックハットハッカーがいると報告している。 ChatGPT の人工知能を使用して悪意のある攻撃を実行しました。
文書化された例の 1 つでは、イスラエルのセキュリティ会社チェック ポイントが、人気のアンダーグラウンド ハッキング フォーラムで、人気の人工知能チャットボットを使用して「マルウェアを再作成する」実験を行っているというハッカーによる投稿を発見しました。
ChatGPT を使用すると、ユーザーはホスティング プロバイダーからのメールを追跡するための書き込みなど、簡単な質問や提案を行うことができます。
ハッカーは ChatGPT から Android マルウェアを生成します。圧縮されて拡散します。ネットワーク経由で。このマルウェアは、目的のファイルを盗むことができると報告されています。別のハッカーは、コンピュータにバックドアをインストールし、さらなるマルウェアに感染させる可能性のある別のツールをデモンストレーションしました。
Check Point は、状況評価の中で、一部のハッカーが ChatGPT を使用して最初のスクリプトを作成していたことを指摘しました。上記のフォーラムでは、別のユーザーが、被害者のコンピュータ上のファイルを暗号化できる ChatGPT を使用して書かれた Python コードを共有しました。このコードは無害な目的で使用される可能性があるが、Check Pointは「ChatGPTは、ユーザーの介入なしに被害者のコンピュータ上のファイルを完全に暗号化するために簡単に変更できるコードを生成する」と述べている。さらに、あるハッカーが、ChatGPT を使用して、ダークネット市場の支払いシステムで使用される最新の暗号通貨価格を取得するためにサードパーティ API を使用するコードを作成したと地下フォーラムに投稿しました。
セキュリティ会社は、ChatGPT でエンコードされたハッキング ツールは「非常に基本的」であるように見えるが、「より高度な攻撃者が AI ベースのツールの使用方法を強化するのは時間の問題だ」と強調しました。米国のサイバーセキュリティ企業フォレススカウトのセキュリティインテリジェンス担当バイスプレジデント、リック・ファーガソン氏は、ChatGPTはまだ、侵害に使用されたContiなど、近年の主要なハッキング事件で見られた主要なランサムウェアほど洗練されたものを作成できるようには見えないと述べた。アイルランド国民医療サービスのシステムは悪名高い。しかし、OpenAIのツールは、より基本的だが同様に効果的なマルウェアを構築することで、違法市場への新規参入者の参入障壁を下げるだろうと同氏は述べた。
サイバーインテリジェンス企業ホールドセキュリティの創設者アレックス・ホールデン氏も、サイバー犯罪者が説得力のある役割を作ろうとする中、出会い系詐欺師もChatGPTを使い始めているのを見てきたと述べた。 「彼らは、オンライン詐欺で使用するために雑談を自動化しようとしている主に女の子になりすますチャットボットを作成することを計画しています。」
ChatGPT の開発者は、AI がスパイウェアの明らかなリクエストを作成するのを防ぐことができる、いくつかの悪意のあるリクエスト フィルタリングを実装しました。しかし、セキュリティ アナリストが ChatGPT を使用するとタイプミスなく文法的に正しいフィッシング メールを作成できることを発見したため、AI チャット ボックスはさらに精査されるようになりました。
マルウェアの作成からダークネット マーケットの作成まである例では、マルウェア作成者は他のサイバー犯罪者が使用するフォーラムに参加しており、どのように実験したかを明らかにしましたChatGPT を使用して、既知のマルウェアとテクニックを再現できるかどうかを確認しました。
攻撃者の成功例は、ChatGPT を使用して開発した Python ベースの情報スティーラーのコードを共有したこの人物です。このコードは、感染したシステムからの Office ドキュメント、PDF、および画像。同じマルウェア作成者は、ChatGPT を使用して Java コードを記述し、PuTTY SSH および Telnet クライアントをダウンロードし、PowerShell 経由でシステム上で秘密裏に実行する方法も示しました。
別の攻撃者は、チャットボットを使用して生成した Python スクリプトを公開し、Blowfish および Twofish 暗号化アルゴリズムを使用してデータを暗号化および復号化しました。セキュリティ研究者らは、このコードは完全に無害な目的に使用できる一方で、攻撃者がユーザーの操作なしでシステム上で実行できるように簡単にコードを微調整し、その過程でランサムウェアに変えることができることを発見しました。情報窃取者の作者とは異なり、攻撃者の一部は技術的スキルが非常に限られているようで、実際に ChatGPT を使用して生成した Python スクリプトが彼が初めて作成したスクリプトであると主張しています。
3 番目の例では、セキュリティ研究者は、一部のサイバー犯罪者が ChatGPT を使用して、盗まれた銀行口座やペイメント カードのデータ、悪意のあるソフトウェア ツール、薬物、弾薬、その他さまざまな取引を行うための完全に自動化されたダークネット市場をどのように作成したかについて議論していることを発見しました。違法な商品。
マルウェア生成の閾値ゼロ
OpenAI が AI ツールをリリースして以来、脅威の動作が攻撃者の懸念ChatGPT の悪用は広まっており、多くのセキュリティ研究者は、チャットボットによってマルウェア作成の障壁が大幅に下がったと考えています。
Check Point の脅威インテリジェンス グループ マネージャーの Sergey Shykevich 氏は、ChatGPT を使用すると、悪意のある攻撃者はマルウェアを作成するためにコーディング経験を必要としないと繰り返し述べました。 「目的の機能を実行するように書かれている。したがって、短期的な懸念は確かに、ChatGPT によってスキルの低いサイバー犯罪者がマルウェアを開発できるようになるということだ」とシケビッチ氏は語った。 「長期的には、より洗練されたサイバー犯罪者も、キャンペーンをより効率的にしたり、彼らが抱えるさまざまなギャップに対処したりするために ChatGPT を採用すると思います。」
「攻撃者の観点から見ると、AI システムのコード生成機能により、悪意のある攻撃者は、言語間の翻訳者として機能することで、遭遇する可能性のあるスキル ギャップを簡単に埋めることができます。」 Horizon3AI カスタマー サクセスのマネージャー、ブラッド ホン氏はこう付け加えました。これらのツールは、攻撃者の目的に関連するコード テンプレートをオンデマンドで作成する方法を提供し、攻撃者が Stack Overflow や Git などの開発者サイトを検索する必要性を減らします。
脅威アクターによる ChatGPT の悪用が発見される前から、Check Point は他の多くのセキュリティ ベンダーと同様に、攻撃者が悪意のあるキャンペーンでどのようにチャットボットを活用しているかを実証していました。このセキュリティ ベンダーはブログ投稿の中で、同社の研究者が ChatGPT に架空の Web ホスティング サービスから送信されたように見える電子メールを作成するよう依頼するだけで、完全に合法的に聞こえるフィッシング電子メールを作成できた方法を説明しました。研究者らはまた、ChatGPT に VBS コードを記述させ、それを Excel ブックに貼り付けてリモート URL から実行可能ファイルをダウンロードする方法も実証しました。
このテストの目的は、攻撃者が ChatGPT などの人工知能モデルを悪用して、最初のスピア フィッシング メールから影響を受けるシステムでのリバース シェルの実行に至るまで、完全な感染チェーンを作成する方法を実証することです。
現状では、ChatGPT が熟練した攻撃者に代わることはできません (少なくともまだ)。しかし、セキュリティ研究者らは、ChatGPTがスキルの低いハッカーによるマルウェア作成に実際に役立っているという多くの証拠があるため、サイバー犯罪者がこの技術を悪用するのではないかとの国民の懸念が今後も高まるだろうと述べている。
ChatGPT の制限のバイパス
当初、一部のセキュリティ研究者は、ChatGPT ユーザー インターフェイスの制限は弱く、脅威となる行為は簡単に障害を回避できると考えていました。 。それ以来、OpenAI はチャットボットの制限を改善するために取り組んできたとシケビッチ氏は述べた。
「ChatGPT ユーザー インターフェイスに対する制限が毎週大幅に強化されているのがわかります。その結果、ChatGPT を悪意のある活動や不正行為に使用することがますます困難になっています。」と同氏は言いました。
しかし、サイバー犯罪者は、ユーザーが制限を回避できる特定の単語やフレーズを使用したり回避したりすることで、プログラムを悪用する可能性があります。 NCC グループの商業リサーチ担当ディレクターであるマット ルイス氏は、オンライン モデルとの対話をコンピューティングを伴う「芸術形式」と呼んでいます。
「マルウェアという言葉の使用を避け、マルウェアがどのように設計されているかに基づいて、ファイルを暗号化するコードの例を示すように要求すれば、そのようになります」とルイス氏は言いました。 「指示されることを好む方法があり、さまざまな方法で自分のやりたいことを実行させる興味深い方法がいくつかあります。」
関連トピックに関するプレゼンテーションで、Lewis は ChatGPT がどのように機能するかをデモンストレーションしました。完全なランサムウェアには到達しないものの、依然として危険な可能性がある「暗号化スクリプトを作成」することになります。ルイス氏はこれを回避することについて「解決するのは難しい問題になるだろう」と述べ、OpenAIにとってコンテキストと意図を規制する文言は非常に難しいだろうと付け加えた。
問題をさらに複雑にしているのは、Check Point の研究者が、チャットボットの制限をオーバーライドするために、ChatGPT の代わりに text-davinci-003 と呼ばれる GPT-3 モデル API を備えた Telegram ボットを使用していることを観察したことです。
ChatGPT は、OpenAI モデルのユーザー インターフェイスにすぎません。開発者はこれらのモデルを使用して、バックエンド モデルを独自のアプリケーションと統合できます。ユーザーは、制限のない保護された API を通じてこれらのモデルを利用します。
「私たちが見たところ、OpenAI が ChatGPT インターフェースに設けた障壁と制限は、API を通じてこれらのモデルを使用するユーザーには適用されません」と Shykevich 氏は述べました。
脅威アクターは、チャットボットに正確に指示を出して制限を回避することもできます。 CyberArk は ChatGPT を発売以来テストし、その制限の盲点を発見しました。永続化とリクエストを繰り返すことで、目的のコーディング製品が提供されます。 CyberArk の研究者は、継続的に ChatGPT にクエリを実行し、毎回新しいコードをレンダリングすることで、ユーザーは検出を高度に回避する多態性マルウェアを作成できるとも報告しています。
多型ウイルスは非常に危険な場合があります。このようなウイルスを生成できるオンライン ツールやフレームワークはすでに存在します。 ChatGPT のコード作成機能は、スキルの低いプログラマーやスクリプト作成者にとって最も有益です。
攻撃者にとって、これは新しい機能ではありません...また、マルウェアの亜種を生成する特に効果的な方法でもありません。より優れたツールはすでに存在します。 ChatGPT は、スキルの低い攻撃者が潜在的に危険なコードを生成できるため、新しいツールである可能性があります。
サイバー犯罪者を攻撃しにくくする
OpenAI やその他の同様のツールの開発者は、フィルターやテクノロジーの悪用を制限するために、管理を強化し、継続的に改善します。少なくとも今のところ、AI ツールには依然として不具合があり、多くの研究者が完全なエラーと表現するような問題が発生しやすく、悪意のある取り組みが阻止される可能性があります。それでも、これらのテクノロジーが悪用される可能性は長期的には依然として高いと多くの人が予測しています。
犯罪者によるこれらのテクノロジーの悪用を困難にするために、開発者は悪意のある方法で使用される可能性のあるリクエストを識別するために人工知能エンジンをトレーニングおよび改善する必要があるとシケビッチ氏は述べました。同氏によると、もう1つの選択肢は、OpenAIエンジンを使用するための認証と認可の要件を実装することだという。同氏は、オンライン金融機関や決済システムが現在使用しているものと同様のものでも十分だと指摘した。
ChatGPT の犯罪利用の防止に関して、シケビッチ氏は、最終的には「残念ながら、施行は規制を通じて行われなければならない」とも述べました。OpenAI は、ChatGPT がポリシー違反の警告を伴うスパイウェアを構築することを防ぐ制御を実装しましたが、ハッカーは明白な要求を出しましたが、そしてジャーナリストはこれらの保護を回避する方法を見つけました。シケビッチ氏はまた、OpenAIのような企業は、そのような不正行為を検出するために自社のAIを訓練することを法的に強制されなければならない可能性があるとも述べた。
この記事の翻訳元: https://www.techtarget.com/searchsecurity/news/365531559/How-hackers-can-abuse-ChatGPT-to-create -マルウェア
以上がChatGPT はネットワーク セキュリティの分野における両刃の剣ですの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。