딥페이크의 세계에서는 때로는 진실과 거짓을 구별하기 어려울 때가 있습니다.
AI 알고리즘 "Deepfake"는 사람의 다양한 사실적인 이미지와 동영상을 생성할 수 있으며 얼굴 변경 분야에서 널리 사용되었습니다. 그러나 AI의 얼굴 변화 기술은 딥페이크를 이용해 성인용 영상을 제작하는 등 끊임없는 논란을 불러일으켜 사람들에게 큰 피해를 안겨왔다.
최근 외신 PCmag에 따르면 FBI는 사기꾼들이 Deepfake 기술을 사용해 원격 근무 면접에서 구직자를 사칭하고 고객이나 금융 데이터, 기업에 접근하기 위해 IT 기업에서 취업 기회를 얻으려고 한다고 밝혔습니다. IT 데이터베이스 및/또는 독점 정보.
일부 기업에서는 일부 지원자의 개인식별정보가 타인의 정보인 경우도 있다고 밝혔습니다.
얼굴 교체 전과 후의 캐릭터 얼굴입니다. 이미지 출처: Facebook/Meta
여기에 문제가 있습니다. 현지시간 6월 28일 FBI 인터넷범죄신고센터(IC3)는 공개협의를 통해 최근 취업 지원자를 사칭한 신고 건수가 증가했다고 밝혔다. 사기꾼들은 피해자로부터 훔친 딥페이크 기술과 개인 식별 정보를 사용하여 고용주가 원격 근무나 재택근무에 고용하도록 속였습니다.
이러한 직업에는 IT 및 컴퓨터 프로그래밍, 데이터베이스 및 소프트웨어 관련 직종이 포함됩니다.
이미지 출처: https://www.ic3.gov/Media/Y2022/PSA220628
과거 딥페이크는 AI 기반 프로그램을 사용하여 현실적이면서도 가짜 페르소나를 만들었습니다. 비디오 측면에서 이 기술은 유명인의 얼굴을 다른 사람의 신체에 복사할 수 있고, 오디오 측면에서는 기술이 사람의 음성을 복제하여 원하는 대로 말하도록 조작할 수 있습니다.
그러나 이번에 FBI의 자문 결과 Deepfake 기술이 신원 도용을 조장하고 있는 것으로 나타났습니다. 사기꾼은 잠재적 지원자의 온라인 인터뷰 중에 음성 스푸핑 또는 음성 위조를 사용합니다. 사기꾼들은 이러한 딥페이크 기술을 사용해 IT 기업의 원격 근무나 재택근무에 지원해 왔습니다.
FBI는 사기꾼의 최종 목표가 무엇인지 명확하게 밝히지 않았지만 관련된 직위에는 고객 PII(개인 식별 정보), 금융 데이터, 회사 IT 데이터베이스 및/또는 독점 정보에 대한 액세스가 포함되어 있다고 지적했습니다. 이러한 유형의 정보는 사기꾼이 회사에서 귀중한 정보를 훔치고 기타 신원 사기 계획을 수행하는 데 도움이 될 수 있습니다.
출처: https://www.bangkokpost.com/
하지만 좋은 소식은 고용주가 딥페이크를 탐지할 수 있는 방법을 가지고 있다는 것입니다. 사기꾼들이 잠재적인 고용주와 영상 인터뷰를 진행하는 동안 FBI는 AI 기반 기술이 사기꾼이 말할 때 여전히 결함을 보인다고 지적합니다.
예를 들어, 카메라 앞의 면접관의 움직임과 입술 움직임은 말하는 목소리와 완전히 조화되지 않습니다. 기침, 재채기 또는 기타 청각적 행동이 시각적으로 표현되는 것과 일치하지 않는 경우도 있습니다.
위 내용은 원격 직원이 정말 본인인가요? FBI, 구직자들이 딥페이크를 악용하고 있음을 폭로의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!