Rumah >Peranti teknologi >AI >Pengklonan suara AI mewujudkan kerentanan keselamatan

Pengklonan suara AI mewujudkan kerentanan keselamatan

WBOY
WBOYke hadapan
2023-05-31 13:43:12871semak imbas

Menurut McAfee (McAfee), teknologi AI memacu lonjakan bilangan penipuan suara dalam talian, memerlukan hanya tiga saat audio untuk mengklonkan suara mangsa.

Pengklonan suara AI mewujudkan kerentanan keselamatan

McAfee meninjau 7,054 orang dari tujuh negara dan mendapati bahawa satu daripada empat orang dewasa telah mengalami sejenis Dalam bentuk penipuan suara AI, 10% daripada orang berkata mereka telah ditipu, dan 15% mengatakan seseorang yang mereka kenali telah ditipu. 77% daripada mangsa mendakwa telah kehilangan wang akibatnya.

Selain itu, penyelidik keselamatan dari McAfee Labs telah membuat kesimpulan penting berikut selepas penyelidikan mendalam tentang teknologi pengklonan suara AI dan penggunaannya oleh penjenayah siber.

Penipu menggunakan teknologi AI untuk mengklonkan suara

Suara setiap orang adalah unik, bersamaan dengan cap jari biometrik, itulah sebabnya mendengar Bercakap kepada seseorang adalah cara yang diterima secara meluas untuk mewujudkan kepercayaan.

Tetapi 53% orang dewasa berkongsi data suara dalam talian sekurang-kurangnya sekali seminggu (melalui saluran seperti media sosial dan mel suara), dan 49% orang dewasa berkongsi data suara itu sehingga 10 kali seminggu , pengklonan suara seseorang kini merupakan salah satu alat yang paling berkuasa dalam senjata penjenayah siber.

Dengan percambahan pesat dan pembangunan alat kecerdasan buatan, lebih mudah daripada sebelumnya bagi penjenayah untuk memanipulasi imej, video dan suara rakan dan keluarga (yang terakhir ini mungkin yang paling mengganggu ).

Penyelidikan McAfee menunjukkan bahawa penipu kini menggunakan teknologi AI untuk mengklonkan suara dan kemudian menghantar mel suara palsu atau menghubungi kenalan buku alamat mangsa, berpura-pura menghadapi masalah. 70% orang dewasa mengatakan sukar untuk membezakan antara suara klon dan suara sebenar Tidak hairanlah teknologi ini semakin popular di kalangan penjenayah.

45% responden berkata mereka akan membalas mel suara penipuan atau nota suara yang berpura-pura daripada rakan atau ahli keluarga, terutamanya jika suara itu datang daripada pasangan atau pasangan mereka (40% ), ibu bapa (31%) atau kanak-kanak (20%).

Mangsa penipuan suara AI telah mengalami kerugian besar

Ibu bapa yang berumur 50 tahun ke atas adalah kumpulan yang paling mungkin bertindak balas terhadap suara anak mereka , perkadaran Mencapai 41%. Mesej yang paling mungkin dibalas adalah mereka yang mendakwa pernah mengalami kemalangan kereta (48%), telah dirompak (47%), kehilangan telefon atau dompet mereka (43%) atau memerlukan bantuan semasa melancong ke luar negara (41%).

Tetapi jika mangsa jatuh kerana penipuan suara AI, mereka sering menghadapi kerugian besar. Lebih daripada satu pertiga daripada mangsa mendakwa telah kehilangan lebih daripada $1,000, dan 7% telah ditipu daripada $5,000 hingga $15,000.

Tinjauan itu juga mendapati bahawa kemunculan pemalsuan mendalam dan maklumat salah telah menyebabkan orang ramai menjadi lebih berhati-hati dengan apa yang mereka lihat dalam talian, dengan 32% orang dewasa berkata mereka kini kurang percaya berbanding sosial sebelum ini. media.

Ketua Pegawai Teknologi McAfee Steve Grobman berkata: “Kecerdasan buatan memberikan peluang yang luar biasa, tetapi seperti mana-mana teknologi, sentiasa ada potensi untuk teknologi ini jatuh ke tangan yang salah kita lihat hari ini, dengan alatan AI yang mudah digunakan membantu penjenayah siber meningkatkan penipuan mereka dengan cara yang semakin realistik.”

Pengklonan suara semakin mudah

Sebagai sebahagian daripada usaha McAfee untuk menganalisis dan menilai arah aliran baharu ini, penyelidik McAfee menghabiskan tiga minggu menyiasat kebolehcapaian alat pengklonan suara AI , kemudahan penggunaan dan keberkesanan, pasukannya menemui lebih daripada sedozen alat pengklonan suara AI percuma dalam talian .

Kedua-dua alatan percuma dan berbayar sedia tersedia, dan kebanyakannya memerlukan pengalaman dan kepakaran asas sahaja untuk digunakan. Satu alat memerlukan hanya tiga saat pertuturan untuk menghasilkan klon dengan padanan 85%. Ketepatan boleh dipertingkatkan lagi jika penjenayah melakukan lebih banyak usaha.

Dengan melatih model data, penyelidik McAfee mencapai 95% padanan pertuturan menggunakan hanya sebilangan kecil fail audio.

Lebih tepat suara klon, lebih besar kemungkinan penjenayah siber boleh memperdaya mangsa untuk menyerahkan wang atau mengambil tindakan lain yang diminta. Oleh kerana penipuan ini mengeksploitasi kelemahan emosi yang wujud dalam keintiman manusia, penipu boleh membuat beribu-ribu dolar dalam masa beberapa jam sahaja.

Evolusi teknologi pengklonan suara

Grobman berkata: “Alat kecerdasan buatan termaju mengubah permainan untuk penjenayah siber mudah untuk mengklonkan suara seseorang dan menipu rakan dan keluarga untuk menghantar wang perlu meminta untuk menghantar wang, pastikan anda mengesahkan identiti sebenar pemanggil - gunakan kata laluan yang telah dipersetujui sebelum ini, atau tanya kod yang hanya orang lain tahu isu identiti dan perlindungan privasi juga akan membantu mengehadkan jejak digital peribadi maklumat, yang boleh digunakan oleh penjenayah untuk mencipta cerita yang menarik apabila mengklonkan suara.”

Menggunakan alat pengklonan yang mereka temui, penyelidik McAfee mendapati bahawa mudah untuk mengklon aksen dari seluruh dunia, sama ada mangsa berasal dari Amerika Syarikat, United Kingdom, India atau Australia, tetapi loghat yang lebih unik lebih sukar untuk diklon. Sebagai contoh, suara orang yang bercakap pada kelajuan, irama atau gaya yang luar biasa akan mengambil lebih banyak usaha untuk mengklon dengan tepat dan oleh itu kurang berkemungkinan disasarkan.

Walau bagaimanapun, pasukan penyelidik secara amnya percaya bahawa kecerdasan buatan telah mengubah peraturan permainan untuk penjenayah siber. Halangan untuk masuk tidak pernah lebih rendah, yang bermaksud melakukan jenayah siber tidak pernah semudah ini.

Petua untuk menghalang pengklonan suara AI

Kata laluan suara yang dipersetujui. Tetapkan kata kod lisan dengan anak, ahli keluarga atau rakan rapat anda yang hanya mereka yang tahu. Buat rancangan yang memerlukan mereka sentiasa memberikan kata kod semasa menelefon, menghantar mesej atau menghantar e-mel untuk mendapatkan bantuan, terutamanya jika mereka adalah orang dewasa atau kanak-kanak yang lebih tua.

Sentiasa mempersoalkan sumbernya. Jika ia adalah panggilan, teks atau e-mel daripada pengirim yang tidak dikenali, malah panggilan daripada seseorang yang anda kenali, anda harus berfikir dengan tenang apabila anda menerima panggilan kecemasan: Adakah ini benar-benar terdengar seperti suara mereka? Adakah mereka akan bertanya kepada anda ini? Tutup telefon, jawab pemanggil atau cuba sahkan ketulenan mesej sebelum membalas (dan sudah tentu sebelum menghantar wang).

Klik dan kongsi dengan berhati-hati. Siapa yang berada dalam rangkaian media sosial anda? Adakah anda benar-benar mengenali dan mempercayai mereka? Berhati-hati dengan rakan dan kenalan anda dalam talian. Lebih luas rangkaian anda dan lebih banyak kandungan yang anda kongsi, lebih besar risiko identiti anda diklon secara berniat jahat.

Gunakan perkhidmatan pemantauan identiti untuk membantu memastikan maklumat pengenalan peribadi anda tidak boleh diakses atau didedahkan jika maklumat peribadi anda berakhir di web gelap. Kekal mengawal data peribadi anda dan elakkan daripada menyamar sebagai penjenayah siber.

Atas ialah kandungan terperinci Pengklonan suara AI mewujudkan kerentanan keselamatan. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Artikel ini dikembalikan pada:51cto.com. Jika ada pelanggaran, sila hubungi admin@php.cn Padam