>  기사  >  기술 주변기기  >  사기꾼은 AI 음성을 사용하여 사랑하는 사람을 사칭하여 수백만 달러를 훔칩니다.

사기꾼은 AI 음성을 사용하여 사랑하는 사람을 사칭하여 수백만 달러를 훔칩니다.

王林
王林앞으로
2023-05-02 22:10:05783검색

诈骗者利用 AI 声音冒充亲人窃取数百万美元

2022년에는 5,000명 이상의 피해자가 전화로 사기를 당했습니다.

  • AI 음성 생성 소프트웨어를 사용하면 사기꾼이 사랑하는 사람의 목소리를 모방할 수 있습니다.
  • 이러한 명의 도용으로 인해 2022년에는 사람들이 전화로 1,100만 달러의 사기를 당했습니다.
  • 노인이 대상 인구의 대다수를 차지합니다.

Microsoft가 계속해서 자사 제품에 ChatGPT를 도입하고 Google이 자체 인공 지능 제품을 출시하여 추세를 따라잡으려고 시도함에 따라 인공 지능은 한동안 기술 세계의 중심 주제였습니다. AI는 텍스트 줄에서 이미지를 생성하는 등 정말 인상적인 일을 할 수 있는 잠재력을 갖고 있지만, 우리는 대체로 규제되지 않는 기술의 단점이 더 많이 보이기 시작했습니다. 최신 사례는 인공 지능 음성 생성기가 사람들의 돈을 속이는 데 사용되는 것입니다.

AI 음성 생성 소프트웨어가 최근 헤드라인에 등장했는데, 주로 성우의 목소리를 훔치는 데 사용되었습니다. 처음에는 소프트웨어에서 화자의 음성과 톤을 설득력 있게 재현하는 데 몇 단어만 필요했습니다. 단 몇 초의 대화만으로도 누군가를 정확하게 흉내낼 수 있을 정도로 기술은 발전했습니다.

诈骗者利用 AI 声音冒充亲人窃取数百万美元

The Washington Post의 새로운 보고서에서 수천 명의 피해자가 사랑하는 사람으로 가장한 사기꾼에게 속았다고 주장합니다. 사기꾼 사기는 미국에서 두 번째로 인기 있는 사기 유형이 된 것으로 알려졌으며, 2022년에는 36,000건 이상의 사례가 접수되었습니다. FTC 관계자에 따르면 해당 36,000건 중 5,000명 이상의 피해자가 전화를 통해 돈 사기를 당했으며 총 손실액은 1,100만 달러에 달했습니다. , 비트코인 ​​단말기를 통해 사기꾼에게 15,000달러 이상이 송금되었습니다. 인공 지능 음성을 통해 부부는 아들이 교통사고로 미국 외교관을 살해한 후 법적 문제에 처했다고 믿게 되었습니다.

이야기 속 피해자들처럼 이번 공격도 주로 노년층을 대상으로 하는 것으로 보입니다. 노인들은 금융 사기에 가장 취약한 집단 중 하나이기 때문에 이는 놀라운 일이 아닙니다. 안타깝게도 법원은 아직 AI 음성 생성기나 다른 형태의 AI 기술로 인해 발생한 손해에 대해 기업이 책임을 져야 하는지 여부를 결정하지 않았습니다.

위 내용은 사기꾼은 AI 음성을 사용하여 사랑하는 사람을 사칭하여 수백만 달러를 훔칩니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제