인공지능은 우리의 삶을 완전히 변화시킬 것으로 예상되는 강력한 기술입니다. 인터넷에 연결된 모든 사람이 강력한 도구를 사용할 수 있다는 점은 오늘날보다 더 분명해졌습니다.
이러한 도구에는 인공 지능 음성 생성기, 인간의 음성을 너무 가깝게 모방하여 둘을 구별하고 구별하는 것이 불가능할 수 있는 고급 소프트웨어가 포함됩니다. 이것이 사이버 보안에 무엇을 의미합니까?
AI 음성 생성기는 어떻게 작동하나요?
음성합성은 인간의 음성을 인공적으로 생성하는 과정을 말하며, 수십 년 동안 존재해 왔습니다. 모든 기술과 마찬가지로 기술도 수년에 걸쳐 중요하고 심오한 변화를 겪었습니다.
Windows 2000과 XP를 사용해본 사용자라면 Microsoft 운영 체제의 기본 텍스트 음성 변환 기능인 Microsoft Sam을 아직도 기억할 것입니다. Microsoft Sam의 성능은 상당히 만족스럽다고 할 수 있지만, 그것이 만들어내는 소리는 매우 기계적이고, 매우 뻣뻣하며, 매우 인공적입니다. 이제 우리가 손쉽게 사용할 수 있는 도구는 딥 러닝 덕분에 훨씬 더 발전되었습니다.
딥 러닝은 인공 신경망을 기반으로 한 기계 학습 방법입니다. 이러한 신경망 덕분에 현대 AI는 인간 두뇌의 뉴런이 정보를 해석하는 것만큼 강력하게 데이터를 처리할 수 있습니다. 즉, 인공지능이 인간과 유사할수록 인간의 행동을 더 잘 모방하게 된다는 것이다.
간단히 말하면 현대 AI 음성 생성기가 작동하는 방식입니다. 더 많은 음성 데이터에 노출될수록 인간의 음성을 더 잘 모방할 수 있습니다. 최근 기술의 발전 덕분에 최첨단 텍스트 음성 변환 소프트웨어는 기본적으로 입력되는 소리를 복제할 수 있습니다.
위협 행위자는 인공지능 음성 생성기를 어떻게 사용하나요?
예상대로 이 기술은 위협 행위자에 의해 악용되고 있습니다. 고전적인 의미의 사이버 범죄자뿐만 아니라 허위 정보 요원, 사기꾼, 검은 모자 마케팅 담당자 및 트롤도 포함됩니다.
ElevenLabs가 2023년 1월 텍스트 음성 변환 소프트웨어의 베타 버전을 출시한 순간, 게시판 4chan에서 극우 트롤들이 이를 악용하기 시작했습니다. 그들은 이 첨단 인공 지능 기술을 사용하여 BBC TV 진행자 David Attenborough와 유명 여배우 Emma Watson과 같은 유명인의 목소리를 복제하여 마치 이들 유명인이 악의적이고 증오에 찬 장광설을 전달하는 것처럼 보이게 했습니다.
당시 IT 외신 Vice가 보도한 대로 ElevenLabs는 일부 사람들이 소프트웨어, 특히 음성 복제 기능을 악용하고 있음을 인정했습니다. 이 기능을 사용하면 누구나 다른 사람의 음성을 "복제"할 수 있습니다. 1분 분량의 녹음만 업로드하면 나머지는 AI가 처리하게 됩니다. 아마도 녹음 시간이 길어질수록 출력이 더욱 현실감 있게 나올 것입니다.
2023년 3월, TikTok의 바이럴 영상이 The New York Times Magazine의 관심을 끌었습니다. 이 비디오에서는 유명 팟캐스트 진행자 Joe Rogan과 그의 쇼 The Joe Rogan Experience에 자주 게스트로 출연하는 Andrew Huberman 박사가 "성욕을 강화하는" 카페인 음료에 대해 논의합니다. 이 영상을 보면 Rogan과 Huberman 모두 이 제품을 확실히 지지하는 것처럼 보입니다. 실제로 이들의 목소리는 인공지능을 이용해 복제됐다.
같은 시기에 캘리포니아 주 산타클라라에 본사를 둔 실리콘 밸리 은행은 위험 관리 오류 및 기타 문제로 인해 파산하여 주정부에 의해 인수되었습니다. 이는 2008년 금융위기 이후 최악의 미국 은행 실패로 전 세계 시장에 충격을 안겼다.
사람들을 더욱 당황하게 만드는 것은 바이든 미국 대통령의 가짜 녹음입니다. 녹음에서 바이든은 임박한 '붕괴'를 경고하고 미국 정부에 '대중을 안심시키기 위해 언론의 힘을 최대한 활용'하라고 지시하는 것을 분명히 들을 수 있다. PolitiFact와 같은 진실 추구 사이트는 신속하게 해당 영상의 진실을 폭로했지만 지금쯤에는 수백만 명의 사람들이 녹음 내용을 들었을 것입니다.
AI 음성 생성기가 유명인 사칭에 사용될 수 있다면 민간인 사칭에도 사용될 수 있는데, 이는 바로 사이버범죄자들이 해왔던 일입니다. IT 외신 ZDNet에 따르면 매년 수천 명의 미국인이 보이스피싱(비싱) 사기에 당하고 있다. 2023년에는 한 노부부가 감옥에 있다고 주장하며 돈을 요구하는 '손자'로부터 전화를 받아 전국적인 헤드라인을 장식했습니다.
YouTube 동영상을 업로드한 적이 있거나(또는 YouTube 동영상에 등장한 적이 있거나), 모르는 사람들과 대규모 그룹 통화에 참여했거나, 어떤 방식으로든 인터넷에 자신의 목소리를 업로드한 적이 있다면, 기술적으로 그렇지 않으면 친구와 가족이 위험에 처할 수 있습니다. 사기꾼이 귀하의 음성을 AI 생성기에 업로드하고 이를 복제한 다음 귀하인 것처럼 가장하여 가족에게 연락하는 것을 막기 위해 무엇을 할 수 있습니까?
인공 지능 사운드 생성기가 사이버 보안 환경을 파괴하고 있습니다
인공 지능이 얼마나 위험한지 깨닫기 위해 사이버 보안 전문가가 되어야 하는 것은 아닙니다. 이는 모든 기술에 해당되지만 인공 지능은 여러 가지 이유로 독특한 위협입니다.
우선, 이는 상대적으로 새로운 기술이므로 우리는 그것이 우리에게 무엇을 가져올 수 있는지 실제로 알지 못합니다. 최신 인공 지능 도구를 사용하면 사이버 범죄자는 이전과는 전혀 다른 방식으로 캠페인을 확장하고 자동화하는 동시에 문제에 대한 대중의 상대적인 무지를 활용할 수 있습니다. 또한 생성적 AI는 지식과 기술이 부족한 위협 행위자가 악성 코드 생성, 사기성 웹 사이트 구축, 스팸 확산, 피싱 이메일 작성, 사실적인 이미지 생성, 긴 형식의 가짜 오디오 및 비디오 콘텐츠 생성을 가능하게 합니다.
결정적으로 AI를 차례로 활용할 수 있습니다. AI는 시스템을 보호하는 데에도 사용되며 앞으로 수십 년 동안 지속될 가능성이 높습니다. 예상대로, 사이버 범죄자와 사이버 보안 업계 사이에는 AI 군비 경쟁이 있을 것입니다. 이러한 도구의 방어 능력과 공격 능력은 본질적으로 동일하기 때문입니다.
일반인의 경우 생성 AI가 확산되려면 보안 관행을 완전히 재고해야 합니다. AI는 흥미롭고 유용할 수 있지만 적어도 실제 상황을 혼란스럽게 할 수 있으며 최악의 경우 기존 보안 문제를 악화시키고 위협 행위자에게 새로운 무대를 제공할 수 있습니다.
음성 생성기는 인공 지능의 파괴적인 잠재력을 보여줍니다
ChatGPT가 출시되자마자 인공 지능 규제에 대한 논의가 뜨거워지기 시작했습니다. 이 기술을 봉쇄하려는 시도에는 국제 협력이 필요할 가능성이 높으며, 지난 수십 년 동안 볼 수 없었던 수준의 협력이 필요하므로 인공 지능을 봉쇄할 가능성은 거의 없습니다.
지니는 병에서 벗어났습니다. 우리가 할 수 있는 일은 이에 익숙해지고 적응하는 것뿐입니다. 사이버 보안 업계가 이에 상응하는 조정을 할 수 있기를 바랍니다.
https://www.makeuseof.com/ai-voice-generators-security-threat
위 내용은 AI 음성 생성기가 차세대 보안 위협이 될까요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!