Maison >Périphériques technologiques >IA >Les escrocs utilisent les voix de l'IA pour usurper l'identité de leurs proches et voler des millions
Plus de 5 000 victimes ont été victimes d'escroqueries par téléphone en 2022.
L'intelligence artificielle est un sujet central dans le monde de la technologie depuis un certain temps déjà, alors que Microsoft continue d'injecter ChatGPT dans ses produits et que Google tente de suivre la tendance en lançant ses propres produits d'intelligence artificielle. Même si l’IA a le potentiel de réaliser des choses vraiment impressionnantes, comme générer une image à partir d’une ligne de texte, nous commençons à voir davantage d’inconvénients dans une technologie largement non réglementée. Le dernier exemple en date est celui des générateurs de voix à intelligence artificielle utilisés pour escroquer les gens.
Les logiciels de génération de voix IA ont fait la une des journaux ces derniers temps, principalement pour voler la voix des doubleurs. Au départ, le logiciel n'avait besoin que de quelques mots pour recréer de manière convaincante la voix et le ton de l'orateur. La technologie a progressé au point où quelques secondes de conversation suffisent pour imiter fidèlement quelqu’un.
Dans un nouveau rapport du Washington Post , des milliers de victimes affirment avoir été trompées par des imposteurs se faisant passer pour des proches. Les escroqueries par imposteur seraient devenues le deuxième type de fraude le plus répandu aux États-Unis, avec plus de 36 000 dossiers déposés en 2022. Selon les responsables de la FTC, sur les 36 000 cas, plus de 5 000 victimes ont été escroquées par téléphone, avec des pertes totalisant 11 millions de dollars. le fils, plus de 15 000 $ ont été envoyés à l’escroc via un terminal Bitcoin. Une voix d'intelligence artificielle a amené le couple à croire que leur fils avait des ennuis juridiques après avoir tué un diplomate américain dans un accident de voiture.
Comme les victimes de l’histoire, ces attaques semblent principalement cibler les personnes âgées. Cela n’est pas surprenant, puisque les personnes âgées constituent l’un des groupes les plus vulnérables en matière de fraude financière. Malheureusement, les tribunaux n’ont pas encore décidé si les entreprises doivent être tenues responsables des dommages causés par les générateurs vocaux d’IA ou d’autres formes de technologie d’IA.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!