>  기사  >  기술 주변기기  >  AI 얼굴교환 사기로 430만위안 사기 당했다

AI 얼굴교환 사기로 430만위안 사기 당했다

王林
王林앞으로
2023-05-28 18:54:261332검색

최근 바오터우시 공안국에서는 푸저우에 있는 한 기술 회사의 법률 대리인인 궈씨가 AI 얼굴 변화로 인해 10분 만에 430만 위안을 사기당한 사건을 발표하여 이에 대한 광범위한 열띤 논의가 촉발되었습니다. 인공지능의 안전성.

AI换脸诈骗430万元 马上消费专家提三点防御措施

이와 관련하여 마샤 소비자 인공 지능 연구소의 지능형 핵심 전문가인 Feng Yue는 “실시간 위조 방지, 중개자 식별 및 기타 기술의 핵심 기능은

얼굴 인식의 단점을 피하고 효과적으로 사진, 동영상, 마스크, 시뮬레이션 모델 등을 식별하며 특히 이번 사건에서 발생한 얼굴 변경 및 음성 변경 사기를 식별합니다.”

AI가 가져올 잠재적 위험에 대해 'AI 대부' Hinton은 New York Times와의 인터뷰에서 "기후 변화에 비해

AI는 인류에게 '더 긴급한' 위협을 가할 수 있습니다"라고 말한 적이 있습니다. 현실에 근거하여 이 진술은 “경고”가 아닙니다. 판도라의 상자 속 '악'이 점차 등장하고 있는 가운데, AIGC는 AI 발전을 새로운 단계로 빠르게 추진하고 있다.

기술의 "악"을 조심하세요. 보는 것이 반드시 믿는 것은 아닙니다

'안전한 바오터우' WeChat 공개 계정에 따르면, 바오터우시 공안국 통신망범죄수사국은 푸저우에 있는 한 기술 회사의 법적 대표인 궈 씨가 430만 달러를 사기당한 사건을 발표했습니다. 10분만에 위안

운이 좋았습니다. 게다가 336억 8400만 위안의 사기 자금이 차단되었으며 "지능형 AI 얼굴 변화 및 의성어 기술"이 사용되었습니다.

그들은 어떻게 했나요? 이것은 뉴스 자체로 볼 때 피해자 궈씨의 관점에서 볼 때 주로 얼굴 변화 기술과 의성어 기술에 속았다고 합니다. 그러나 사건의 배후에는 다음과 같은 다른 조건이 있을 수 있습니다. 범인은 어떤 경로를 통해 피해자와 접촉했는지, 관련 소셜 소프트웨어 계정을 얻는 방법, 사칭해야 할 사람이 누구인지 파악하는 방법, 해당 영상과 음향 자료를 얻는 방법, 피해자를 선택하는 방법 등이다.

얼굴 변화 기술과 의성어 기술 두 가지 핵심 문제에 초점을 맞추면 주요 문제는 기본 데이터 확보, 훈련 프레임워크 및 실시간 렌더링

입니다. 데이터 차원에서는 사칭자의 음성, 영상 정보를 소셜미디어 등 소셜엔지니어링 라이브러리에서 얻을 수도 있고, 분실한 검은색 휴대폰의 사진첩, 채팅 기록 등에서 추출할 수도 있다. 훈련 프레임워크 측면에서, 국내 여러 주류 단편 비디오 플랫폼의 편집 소프트웨어는 현재 경고 메시지 없이 얼굴을 바꾸는 특수 효과를 지원합니다. 외국 오픈 소스 프레임워크에는 30개 이상의 합성 방법이 있습니다. 실시간 렌더링 측면에서 하이재킹된 렌더링은 전화기를 플래싱하고 침입 소프트웨어를 설치하는 등의 공격 작업을 통해서도 달성될 수 있습니다.

그러므로 "보는 것이 반드시 믿는 것은 아닙니다". 기술 뒤에는 항상 고의적인 "악"이 있으며, 이를 경계해야 합니다.

싹을 잘라내고 "

방법"으로 "마법"을 물리치세요 위험은 피할 수 없는데, 어떻게 '마법'을 사용해 '마법'을 물리칠 수 있을까요? 현재 많은 금융기관에서는 이미 관련 조치와 관련 기술 적용을 시행하고 있습니다. 예를 들어 생체 내 위조 방지, 중개자 식별 및 기타 기술도 금융 비즈니스 시나리오에 적용되었습니다.

"실시간 위조 방지, 중개자 식별 및 기타 기술의 핵심 기능은

얼굴 인식의 본질적인 단점을 피하고 사진, 비디오, 마스크, 시뮬레이션 모델 등, 특히 얼굴 변경 및 음성을 효과적으로 식별하는 것입니다. MaMaConsumer 인공지능 연구소의 지능형 핵심 전문가인 Feng Yue는 "이러한 기술 혁신을 기반으로 MaMaConsumer Finance는 현재 일괄 사기 공격을 99% 차단하고 위조 정보를 효과적으로 방지할 수 있으며, 중개, 위조 등의 위험이 있습니다. 신청, 장기 대출, 통신 사기 “.

전체 프로세스가 끝나면 금융 기관과 비교하여 소셜 소프트웨어는 위조 감지 메커니즘을 도입하고 피어 사용자에게 비정상적인 행동, 비정상적인 이미지 위조 또는 비정상적인 사운드가 있는지 여부를 표시하기 위해 사용자에게 실시간 통화 인증 알림을 제공해야 합니다. . 가짜 예외. 위험 경고 정보를 조기에 제공하면 위험 결과 발생을 보다 효과적으로 예방할 수 있습니다.

플랫폼 관련 구현 외에도 대중이 스스로 조치를 취할 수도 있습니다. 현재 이러한 유형의 기술은 사용자의 데이터가 얼굴 변경이나 음성 변경에 사용되지 않도록 보호할 수 있습니다. 적대적 샘플 기술

이라고 합니다. 인간의 얼굴 이미지를 예로 들면, 얼굴 변경 기술은 육안으로 볼 수 없는 적대적인 섭동 마스크를 이미지에 혼합함으로써 효과적이지 않게 될 수 있습니다. 사용자는 이러한 유형의 기술을 사용하여 소셜 미디어의 이미지 및 음성과 같은 미디어 정보를 공개하기 전에 보호할 수 있습니다.

마지막으로

"예방의식"은 모든 "마법"의 초석이며, 국민 역시 개인 소지품과 정보에 대한 보안 보호를 강화해야 합니다.

"알 수 없는 문자 메시지 링크, 이메일 링크 등을 클릭하지 마세요. 출처를 알 수 없는 QR 코드를 스캔하지 마세요. 앱을 다운로드하지 마세요. 얼굴 및 기타 개인 생체 정보를 타인에게 쉽게 제공하지 마세요. 신분증, 은행 카드, 인증 코드 및 기타 정보를 공개하고 애니메이션 사진, 비디오 등을 과도하게 공개하거나 공유하지 마십시오.”라고 Feng Yue는 제안했습니다. "휴대폰 및 기타 모바일 기기가 분실되지 않는다는 보장은 없습니다. 정기적으로 WeChat 채팅 기록을 삭제하고, 가까운 관계에 있는 사람들과의 관련 흔적을 숨기고, 휴대폰 사진 앨범을 암호화하거나, 귀하의 데이터 보호 기능을 활성화할 수 있습니다. 이러한 일상적인 행동은 외부에서 도용될 수 있습니다.

성공하는 데는 단계별로 오랜 시간이 걸립니다. 인공지능 기술의 '오용'을 방지하는 것은 디지털 시대에도 핵심 과제로 남을 것이다.

출처: 금융산업정보

위 내용은 AI 얼굴교환 사기로 430만위안 사기 당했다의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 sohu.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제