>  기사  >  기술 주변기기  >  AI 음성 복제로 인해 보안 취약점 발생

AI 음성 복제로 인해 보안 취약점 발생

WBOY
WBOY앞으로
2023-05-31 13:43:12854검색

McAfee에 따르면 AI 기술로 인해 온라인 음성 사기 수가 급증하고 있으며 피해자의 음성을 복제하는 데 오디오 시간이 3초밖에 걸리지 않습니다.

AI 음성 복제로 인해 보안 취약점 발생

McAfee는 7개국 7,054명을 대상으로 설문조사를 실시한 결과 성인의 4분의 1이 이전에 어떤 형태로든 AI 음성 사기를 경험했으며 10%는 사기의 영향을 받았다고 답했으며 15%는 아는 사람이 있다고 답했습니다. 사기를 당했습니다. 피해자의 77%는 그 결과 돈을 잃었다고 주장했습니다.

또한 McAfee Research의 보안 연구원들은 AI 음성 복제 기술과 사이버 범죄자의 사용에 대한 심층적인 연구를 통해 다음과 같은 중요한 결론을 도출했습니다.

사기꾼은 AI 기술을 사용하여 음성을 복제합니다.

모든 사람의 음성은 고유하며 생체 지문과 동일합니다. 따라서 누군가의 말을 듣는 것이 신뢰를 구축하는 방법으로 널리 받아들여지고 있습니다.

그러나 성인의 53%는 일주일에 한 번 이상(소셜 미디어, 음성 메일 등의 채널을 통해) 음성 데이터를 온라인으로 공유하고, 49%는 일주일에 최대 10번까지 음성 데이터를 공유합니다. 사이버범죄자의 무기고에 있는 강력한 도구입니다.

인공지능 도구의 급속한 확산과 발전으로 범죄자들이 친구와 가족의 이미지, 비디오, 음성을 조작하는 것이 그 어느 때보다 쉬워졌습니다(후자가 아마도 가장 충격적일 것입니다).

McAfee의 연구에 따르면 사기꾼들은 이제 AI 기술을 사용하여 음성을 복제한 다음 문제가 있는 척하면서 가짜 음성 메일을 보내거나 피해자의 주소록에 있는 연락처에 전화를 걸고 있는 것으로 나타났습니다. 성인의 70%는 복제된 목소리와 실제 목소리를 구별하기가 어렵다고 말합니다. 이 기술이 범죄자들 사이에서 점점 더 인기를 얻고 있는 것은 당연합니다.

45%의 응답자는 친구나 가족이 보낸 것처럼 가장하는 사기 음성 메일이나 음성 메모에 응답하겠다고 답했습니다. 특히 파트너나 배우자(40%), 부모(31%) 또는 가족에게서 온 경우라면 더욱 그렇습니다. 어린이(20%).

AI 음성 사기 피해자는 큰 손실을 입었습니다

50세 이상의 부모는 자녀의 목소리에 반응할 확률이 41%로 가장 높은 그룹입니다. 응답할 가능성이 가장 높은 메시지는 교통사고(48%), 도난(47%), 휴대전화나 지갑 분실(43%), 해외 여행 중 도움이 필요(41%) 등의 메시지였습니다.

하지만 피해자가 AI 음성 사기에 빠지면 큰 손실을 입는 경우가 많습니다. 피해자의 3분의 1 이상이 1,000달러 이상 손실을 입었다고 주장했으며, 7%는 5,000~15,000달러 중 사기를 당했습니다.

또한 설문 조사에 따르면 딥페이크와 허위 정보의 증가로 인해 사람들이 온라인에서 보는 내용에 대해 더욱 경계하게 되었으며, 성인의 32%가 이제 소셜 미디어를 그 어느 때보다 신뢰하지 않는다고 답했습니다.

McAfee 최고 기술 책임자인 Steve Grobman은 다음과 같이 말했습니다. “인공 지능은 놀라운 기회를 제공하지만 다른 기술과 마찬가지로 이 기술도 잘못된 사람의 손에 넘어가 오용될 가능성이 항상 있습니다. 사용하기 쉬운 AI 도구는 사이버 범죄자가 점점 더 현실적인 방식으로 사기를 확장하는 데 도움이 됩니다.”

McAfee가 분석하고 이 새로운 추세를 평가하는 과정에서 음성 복제가 점점 더 쉬워지고 있습니다. McAfee 연구원들은 3주 동안 조사에 나섰습니다. AI 음성 복제 도구의 접근성, 사용 용이성 및 효율성 그들의 팀은 온라인에서 12개 이상의 무료 AI 음성 복제 도구를 발견했습니다.

무료 도구와 유료 도구 모두 손쉽게 사용할 수 있으며 대부분의 도구는 기본 경험과 전문 지식만 있으면 사용할 수 있습니다. 한 도구의 경우 단 3초의 음성만으로 85% 일치하는 복제본을 생성하는 데 충분했습니다. 범죄자가 더 많은 노력을 기울이면 정확도가 더욱 향상될 수 있습니다.

McAfee 연구원들은 데이터 모델 교육을 통해 소수의 오디오 파일만 사용하여 95% 음성 일치를 달성했습니다.

복제된 음성이 정확할수록 사이버 범죄자가 피해자를 속여 돈을 넘겨주거나 기타 요청된 조치를 취하도록 할 가능성이 높아집니다. 이러한 사기는 인간의 친밀감에 내재된 정서적 취약성을 이용하기 때문에 사기꾼은 단 몇 시간 만에 수천 달러를 벌 수 있습니다.

음성 복제 기술의 진화

Grobman은 다음과 같이 말했습니다. “고급 인공 지능 도구는 이제 거의 노력하지 않고도 누군가의 목소리를 복제하고 친구와 가족을 속일 수 있습니다.

Grobman은 다음과 같이 결론을 내렸습니다. "어려움을 겪고 있는 배우자나 가족으로부터 전화를 받을 경우 자신과 친구, 가족의 안전을 지키기 위해 경계심을 늦추지 않고 적극적인 조치를 취하는 것이 중요합니다. , 발신자의 실제 신원을 확인하십시오. 사전에 합의된 비밀번호를 사용하거나 상대방만이 알고 있는 질문을 하십시오. 신원 및 개인 정보 보호 서비스는 또한 범죄자가 복제할 수 있는 개인 정보의 디지털 발자국을 제한하는 데 도움이 됩니다. 그들이 발견한 복제 도구를 통해 McAfee 연구원들은 피해자가 미국, 영국, 인도 출신인지에 관계없이 전 세계의 악센트를 복제하는 것이 쉽다는 것을 발견했습니다. 여전히 호주인이지만 더 독특한 악센트일수록 복제하기가 더 어렵습니다. 예를 들어, 비정상적인 속도, 리듬 또는 스타일로 말하는 사람들의 목소리는 정확하게 복제하는 데 더 많은 노력이 필요하므로 표적이 될 가능성이 적습니다.

그러나 연구팀은 일반적으로 인공 지능이 사이버 범죄자의 게임 규칙을 바꾸었다고 믿고 있습니다. 진입 장벽이 그 어느 때보다 낮아졌기 때문에 사이버 범죄를 저지르는 것이 그 어느 때보다 쉬워졌습니다.

AI 음성복제 방지 꿀팁

음성 비밀번호에 동의하세요. 나만 아는 자녀, 가족, 가까운 친구와 함께 언어암호를 설정해 보세요. 도움을 청하기 위해 전화, 문자, 이메일을 보낼 때, 특히 노인이나 어린이인 경우 항상 암호를 제공하도록 요구하는 계획을 세우십시오.

항상 출처를 물어보세요. 발신인을 알 수 없는 전화, 문자, 이메일, 심지어 아는 사람의 전화라면 조난 전화를 받을 때 침착하게 생각해야 합니다. 이 소리가 정말 그 사람의 목소리처럼 들리나요? 그들이 당신에게 이것을 물어볼 것입니까? 전화를 끊거나, 발신자에게 응답하거나, 응답하기 전에(물론 돈을 보내기 전에) 메시지의 진위 여부를 확인하십시오.

주의해서 클릭하고 공유하세요. 당신의 소셜 미디어 네트워크에는 누가 있나요? 당신은 정말로 그들을 알고 신뢰하고 있습니까? 온라인에서 친구와 연락처를 알아두세요. 네트워크가 더 넓어지고 더 많은 콘텐츠를 공유할수록 귀하의 신원이 악의적으로 복제될 위험이 더 커집니다.

신원 모니터링 서비스를 사용하여 개인 정보가 다크 웹에 있는 경우 개인 식별 정보에 액세스하거나 공개할 수 없도록 하세요. 귀하의 개인 데이터를 통제하고 사이버 범죄자의 사칭을 피하십시오.

위 내용은 AI 음성 복제로 인해 보안 취약점 발생의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제