ホームページ > 記事 > テクノロジー周辺機器 > AI を使用して、ホロコースト後に離れ離れになった愛する人を見つけます。 Googleのエンジニアが70万枚以上の第二次世界大戦の古い写真を識別できる顔認識プログラムを開発
AI 顔認識の分野で新しいビジネスは生まれましたか?
今回は、第二次世界大戦の古い写真から顔を特定するという内容でした。
最近、Google のソフトウェア エンジニアであるダニエル パットは、N2N (Numbers to Names) と呼ばれる AI 顔認識技術を開発しました。これは、第二次世界大戦前のヨーロッパとホロコーストの写真を識別し、現代の写真と関連付けることができます。人々。
2016 年、パットはワルシャワのポーランド系ユダヤ人記念博物館を訪れたときに、あるアイデアを思いつきました。
これらの奇妙な顔は彼と血がつながっている可能性がありますか?
彼の祖父母のうち 3 人はポーランド出身のホロコースト生存者であると彼は考えました。祖母がナチスに殺された家族の写真を見つけるのを手伝ってください。
第二次世界大戦中、多数のポーランド系ユダヤ人がさまざまな強制収容所に投獄されたため、その多くが行方不明になりました。
黄ばんだ写真だけでは、そこに写っている顔を特定することは困難であり、ましてや行方不明の親戚を見つけることは困難です。
そこで、彼は家に戻り、すぐにこのアイデアを現実にしました。
このソフトウェアの当初のアイデアは、データベースを通じて顔の画像情報を収集し、人工知能アルゴリズムを使用して、類似性が最も高い上位 10 個のオプションを照合することでした。
画像データのほとんどは米国ホロコースト記念博物館 (米国ホロコースト記念博物館) から提供されており、全米のデータベースから 100 万件以上の画像が収集されています。
ユーザーは、コンピューター ファイル内の画像を選択してアップロードをクリックするだけで、システムが最も一致する画像を持つ上位 10 個のオプションを自動的に除外します。
さらに、ユーザーはソースアドレスをクリックして、写真の年、場所、コレクション、その他の情報を表示することもできます。
#欠点の 1 つは、現代のキャラクター画像を入力すると、とんでもない検索結果が表示される可能性があることです。 これが結果でしょうか? (黒い疑問符) つまり、システム機能にはまだ改善の必要があるということです。 さらに、パットは Google の他のソフトウェア エンジニアやデータ サイエンティストのチームと協力して、検索の範囲と精度を向上させています。 顔認識システムにはプライバシー漏洩のリスクがあるため、パット氏は「私たちはアイデンティティの評価を行っていない。私たちが責任を負うのは、類似性スコアを使用して結果を提示し、ユーザーに独自の判断をしてもらうことだけだ」と述べた。 。」 AI顔認識技術の開発 では、この技術はどのようにして顔を認識するのでしょうか? 当初、顔認識技術は「検出された画像が顔であるかどうかをどのように判断するか」からスタートする必要がありました。 2001 年、コンピューター ビジョンの研究者である Paul Viola と Michael Jones は、リアルタイムで高精度に顔を検出するフレームワークを提案しました。 このフレームワークは、「何が顔で、何が顔ではないのか」を理解するためのトレーニング モデルに基づくことができます。 トレーニング後、モデルは特定の特徴を抽出し、これらの特徴をファイルに保存します。これにより、新しい画像の特徴を、さまざまな段階で以前に保存された特徴と比較できるようになります。 精度を確保するには、「数十万のポジティブ画像とネガティブ画像を含む大規模なデータセット」でアルゴリズムをトレーニングする必要があります。これにより、画像内に顔が含まれているかどうか、および顔がどこに含まれているかを判断するアルゴリズムの能力が向上します。それはそうです。 研究対象の画像が特徴比較の各段階に合格した場合、顔が検出されており、操作を続行できます。 Viola-Jones フレームワークは、リアルタイム アプリケーションでの顔認識の精度が非常に高いですが、一定の制限があります。 たとえば、顔がマスクを着用している場合、または顔の向きが正しくない場合、フレームワークは機能しない可能性があります。 Viola-Jones フレームワークの欠点を解消し、顔検出を改善するために、彼らは追加のアルゴリズムを開発しました。プロセスの改善に役立つ領域ベースの畳み込みニューラル ネットワーク (R-CNN) やシングル ショット検出器 (SSD) など。
畳み込みニューラル ネットワーク (CNN) は、画像の認識と処理に使用される人工ニューラル ネットワークであり、特にピクセル データを処理するように設計されています。
#R-CNN は、CNN フレームワーク上で領域提案を生成し、画像内のオブジェクトの位置を特定して分類します。 領域提案ネットワークに基づく方法 (R-CNN など) では 2 つのショット (1 つは領域提案の生成、もう 1 つは提案された各オブジェクトの検出) が必要ですが、SSD では画像内の複数のオブジェクトを検出するのに 1 つのショットのみが必要です。したがって、SSD は R-CNN よりも大幅に高速です。 近年、ディープラーニングモデルによる顔認識テクノロジーの利点は、従来のコンピュータービジョン手法よりも大幅に優れています。 初期の顔認識では、主に従来の機械学習アルゴリズムが使用されており、研究では、より識別可能な特徴を抽出する方法と、顔をより効果的に位置合わせする方法に重点が置かれていました。 研究の深化に伴い、従来の機械学習アルゴリズムによる二次元画像上の顔認識の性能向上は徐々にボトルネックに達してきました。 人々はビデオでの顔認識の問題を研究し始めたり、顔認識のパフォーマンスをさらに向上させるために 3 次元モデル手法と組み合わせたりする一方で、少数の学者が 3 次元の顔認識の問題を研究し始めました。 。 最も有名な LFW パブリック ライブラリでは、深層学習アルゴリズムが、2 次元画像上の顔認識パフォーマンスにおける従来の機械学習アルゴリズムのボトルネックを突破しました。初回認識率が向上し、97%以上に向上しました。 それは、「CNNネットワークが確立した高次元モデル」を用いて、入力された顔画像から有効な識別特徴を直接抽出し、顔認識用のコサイン距離を直接計算することです。 顔検出は、基本的なコンピューター ビジョン技術から、機械学習 (ML) の進歩、ますます複雑な人工ニューラル ネットワーク (ANN) および関連技術へと進化し、その結果、パフォーマンスが継続的に向上しています。 現在、顔追跡、顔分析、顔認識など、多くの重要なアプリケーションの最初のステップとして重要な役割を果たしています。 第二次世界大戦中、中国も戦争のトラウマに苦しみ、当時の写真に写った多くの人々はもはや身元が特定できなくなっていました。 戦争で心に傷を負った人々には、行方不明の親戚や友人がたくさんいます。 このテクノロジーの開発は、人々が埃っぽい年月を明らかにし、過去の人々にいくらかの慰めを見つけるのに役立つかもしれません。 参考: https://www.timesofisrael.com/google-engineer-identifying-anonymous-faces-in-wwii-photos-with-ai-facial-recognition/以上がAI を使用して、ホロコースト後に離れ離れになった愛する人を見つけます。 Googleのエンジニアが70万枚以上の第二次世界大戦の古い写真を識別できる顔認識プログラムを開発の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。