ホームページ > 記事 > テクノロジー周辺機器 > ディープフェイク技術の深い理解: IEEE の調査と研究
ほとんどの人は真正性を区別することに自信を持っていますが、ディープフェイクの台頭により、この能力がますます困難になる可能性があります。
ディープフェイクは、人工知能 (AI) によって作成されたデジタル コンテンツで、音声、動画、静止画を網羅し、非常に本物のように見えます。多くの場合、登場人物が真実ではないことを話したり行動したりする描写が描かれます。サイバーセキュリティの専門家やテクノロジーの専門家は、このコンテンツが詐欺計画や誤った情報の拡散など、さまざまな悪意のある方法で使用される可能性があるとますます警告しています。
リスクの特定
ディープフェイクの増加について専門家が警告している焦点の1つは有名人や政治家ですが、攻撃は個人を標的にすることもあります。
IEEE メンバーの Rebecca Herold は、ディープフェイクのリスクを説明する逸話を共有しました。ヘロルトさんは、「私の友人が出張中に妻から電話を受けた。彼女は非常に動揺し、すすり泣きながら、事故に遭ったのでレッカー車を呼ぶお金がないと言った」と語った。友人はその電話をほとんど信じたが、妻からの電話だったようだった。しかし友人は妻に、レッカー会社に電信送金する必要があると告げ、電話を切った後、妻の電話番号にダイヤルした。 「彼は騙されそうになったと言っており、その声はとても本物でした。しかし、妻はとても安全でした。」 IEEE 会員のイェール・フォックス氏は、「現時点では、ディープフェイクは本物の動画と完全に区別できないわけではありませんが、徐々に近づいてきています。ほとんどの人は依然としてディープフェイク動画を識別できます。」と述べています。
人工知能は、他人のポジティブなイメージを形成することに優れていますが、横から見たときや後ろから見たときなど、細部にはまだ問題があります。画像はあらゆる角度から見る必要があります。ディープフェイクの写真やビデオには、本物の歯よりも多くの歯が含まれる傾向があります。誰かが笑ったり歯を見せたりしたら、よく見てください• ディープフェイクの写真やビデオでは、指が多すぎたり少なすぎたりすることもよくあります。写真やビデオの被写体に指が何本あるかを数えるよう注意してください。 ディープフェイク技術には、人物の横からの視点や斜めからの視点に関してもいくつかの問題があります。ライブビデオを介して誰かとコミュニケーションしていて、それがディープフェイクではないかと疑う場合は、相手に横を見るように頼むか、「ねえ、私はあなたの後ろの壁が好きです、その絵「これはどのアーティストの作品ですか?」• ディープフェイクの写真やビデオには、照明、反射、影などの不一致が含まれることがよくあります。 • ディープフェイク動画には、高速だが不自然な動きが含まれることがよくあります。たとえば、異常なぎくしゃくした動きや時間のジャンプのように見えるものを探します。 ディープフェイク音声には不自然な音声品質や一貫性のない音声品質が含まれることが多く、時折発生する可能性があります新技術への競争ディープフェイク技術は社会にもたらす危険により、政府、大学、民間企業による検出ツールの研究の波#一部の技術は、疑わしいコンテンツ自体を評価します。たとえば、一部のツールは人の顔の血流を評価し、不自然なブレンディングやブラーを探します。または、信頼性の指標として、人の目の反射を見て、それが周囲の環境と一致するかどうかを確認します。 IEEE Signal Processing Society が主催する包括的なディスカッションでは、これらの技術のいくつかが実際に実証されました。
他のツールは、ファイルのメタデータに操作の痕跡がないか検査する可能性があります
以上がディープフェイク技術の深い理解: IEEE の調査と研究の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。