ホームページ >テクノロジー周辺機器 >AI >AI 音声クローン作成によりセキュリティ上の脆弱性が生じる
McAfee (マカフィー) によると、AI テクノロジーによりオンライン音声詐欺の件数が急増しており、被害者の音声のクローンを作成するにはわずか 3 秒の音声しか必要としません。
McAfee が 7 か国の 7,054 人を対象に調査したところ、成人の 4 人に 1 人が AI 音声詐欺の形で何らかの被害を経験していることがわかりました。10%の人々が詐欺に遭ったと回答し、15% が知り合いが詐欺に遭ったと回答しました。被害者の77%はその結果金銭を失ったと主張している。
さらに、McAfee Research Labs のセキュリティ研究者は、AI 音声クローン技術とサイバー犯罪者によるその使用に関する詳細な調査の結果、次の重要な結論を導き出しました。
すべての人の声はユニークであり、生体認証の指紋に相当します。そのため、誰かの話を聞くことが重要です。信頼を確立するために広く受け入れられている方法。
しかし、成人の 53% は音声データを週に少なくとも 1 回 (ソーシャル メディアやボイスメールなどのチャネルを通じて) オンラインで共有し、49% は週に最大 10 回共有しています。誰かの声は現在、サイバー犯罪者の武器の中で最も強力なツールの 1 つです。
人工知能ツールが急速に普及し、発展するにつれて、犯罪者が友人や家族の画像、ビデオ、音声を操作することがこれまで以上に簡単になりました(おそらく後者が最も憂慮すべきものです)。 。
マカフィーの調査によると、現在、詐欺師は AI テクノロジーを利用して音声を複製し、偽のボイスメールを送信したり、被害者のアドレス帳の連絡先に電話をかけたりして、被害者が困っているふりをしていることがわかりました。成人の 70% は、クローン音声と本物の音声を区別するのは難しいと述べており、この技術が犯罪者の間でますます普及しているのも不思議ではありません。
回答者の 45% は、友人や家族からのふりをした詐欺のボイスメールやボイスメモに応答すると回答しました (特に、ボイスメールがパートナーや配偶者からのものである場合は 40%) )、親(31%)または子供(20%)。
50 歳以上の親は、子どもの声に最も反応する可能性が高いグループです、割合は41%に達しました。返信される可能性が最も高いメッセージは、交通事故に遭った (48%)、強盗に遭った (47%)、携帯電話や財布を紛失した (43%)、または海外旅行中に助けが必要である (41%) と主張するメッセージです。
しかし、被害者が AI 音声詐欺に陥った場合、多くの場合、大きな損失に直面することになります。被害者の3分の1以上は1000ドル以上を失ったと主張し、7%は5000~1万5000ドルをだまし取られたとしている。
この調査では、ディープフェイクや偽情報の台頭により、人々がオンラインで見るものに対してより警戒するようになり、成人の 32% が、以前よりもソーシャルを信頼できなくなったと回答していることも判明しました。メディア。
McAfee 最高技術責任者 Steve Grobman 氏は次のように述べています。「人工知能は素晴らしいチャンスをもたらしますが、他のテクノロジーと同様に、このテクノロジーが悪者の手に渡る可能性は常にあります。使いやすい AI ツールにより、サイバー犯罪者はますます現実的な方法で詐欺行為を拡大できるようになるため、これが今日私たちが目にしていることです。」
この新しい傾向を分析および評価するマカフィーの取り組みの一環として、マカフィーの研究者は 3 週間かけて AI 音声クローン作成ツールのアクセシビリティ、使いやすさ、有効性を調査し、彼のチームは十数もの問題を発見しました。オンラインの無料 AI 音声クローン ツール。
無料ツールと有料ツールはすぐに入手でき、その多くは基本的な経験と専門知識のみを使用して使用できます。あるツールでは、わずか 3 秒間の発話で、85% の確率で一致するクローンを生成するのに十分でした。犯罪者がさらに努力すれば、精度はさらに向上する可能性があります。
マカフィーの研究者は、データ モデルをトレーニングすることにより、少数の音声ファイルのみを使用して 95% の音声一致を達成しました。
クローン音声の精度が高ければ高いほど、サイバー犯罪者が被害者をだまして金銭を渡したり、その他の要求された行動をとらせたりする可能性が高くなります。これらの詐欺は人間の親密さにおける感情的な脆弱性を悪用するため、詐欺師はわずか数時間で数千ドルを稼ぐことができます。
グロブマン氏は次のように述べています。ほとんど努力をすることなく、誰かの声を複製し、友人や家族を騙して送金させることが可能です。」
グロブマン氏は次のように結論づけています。あなたとあなたの友人や家族の安全を守るため。困っている配偶者や家族から送金を求める電話を受けた場合は、必ず発信者の本人確認を行ってください。事前に合意したパスワードを使用するか、コードを尋ねてください。問題は、相手だけが知っていることです。アイデンティティおよびプライバシー保護サービスは、犯罪者が音声を複製する際に説得力のあるストーリーを作成するために利用できる個人情報のデジタル フットプリントを制限するのにも役立ちます。」マカフィーの研究者が発見したクローン作成ツールを使用したところ、被害者が米国、英国、インド、オーストラリアのいずれの出身であっても、世界中のアクセントのクローンを作成するのは簡単でしたが、より独特なアクセントのクローンを作成するのはより困難であることがわかりました。たとえば、異常な速度、リズム、またはスタイルで話す人の声は、正確に複製するのにより多くの労力がかかるため、ターゲットになる可能性は低くなります。
しかし、研究チームは一般に、人工知能がサイバー犯罪者のゲームのルールを変えたと信じています。参入障壁はかつてないほど低くなり、サイバー犯罪を犯すことがこれまでになく簡単になったことを意味します。
AI 音声クローン作成防止のヒント
常に情報源に疑問を持ちましょう。不明な送信者からの電話、テキストメッセージ、電子メール、さらには知り合いからの電話の場合でも、救難信号を受信したときは冷静に考えてください。「これは本当に相手の声に聞こえるのだろうか?」彼らはあなたにこれを尋ねますか?電話を切るか、発信者に応答するか、応答する前に (もちろん送金する前に) メッセージの信頼性を確認してください。
クリックして共有する場合は注意してください。あなたのソーシャルメディアネットワークには誰がいますか?本当に彼らのことを知っていて信頼していますか?オンライン上の友人や連絡先に注意してください。ネットワークが広くなり、共有するコンテンツが増えるほど、ID が悪意を持って複製されるリスクが高くなります。
個人情報がダーク Web に流出した場合に、個人情報監視サービスを使用して、個人情報へのアクセスや公開を確実に防止します。個人データを常に管理し、サイバー犯罪者によるなりすましを回避します。
以上がAI 音声クローン作成によりセキュリティ上の脆弱性が生じるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。