Maison  >  Article  >  Périphériques technologiques  >  Les générateurs de parole IA deviendront-ils la prochaine menace majeure pour la sécurité ?

Les générateurs de parole IA deviendront-ils la prochaine menace majeure pour la sécurité ?

王林
王林avant
2023-04-27 16:55:081304parcourir

L'intelligence artificielle est une technologie puissante qui devrait complètement changer nos vies. Cela n’a jamais été aussi évident qu’aujourd’hui ; des outils puissants sont accessibles à toute personne disposant d’une connexion Internet.

Ces outils incluent des générateurs de parole d'intelligence artificielle, des logiciels avancés qui peuvent imiter la parole humaine si fidèlement qu'il est impossible de distinguer les deux. Qu’est-ce que cela signifie pour la cybersécurité ?

Comment fonctionne le générateur de parole AI ?

La synthèse vocale fait référence au processus de génération artificielle de la parole humaine, et elle existe depuis des décennies. Comme toute technologie, elle a subi des évolutions importantes et profondes au fil des années.

Les utilisateurs qui ont utilisé Windows 2000 et XP se souviennent peut-être encore de Microsoft Sam, qui est la voix masculine de synthèse vocale par défaut dans les systèmes d'exploitation Microsoft. Les performances de Microsoft Sam peuvent être qualifiées de tout à fait satisfaisantes, mais le son qu'il produit est très mécanique, très rigide et très artificiel. Les outils dont nous disposons désormais sont bien plus avancés, en grande partie grâce au deep learning.

Le deep learning est une méthode d'apprentissage automatique basée sur des réseaux de neurones artificiels. Grâce à ces réseaux neuronaux, l’IA moderne peut traiter les données avec autant de puissance que les neurones du cerveau humain interprètent les informations. En d’autres termes, plus l’intelligence artificielle se rapproche de l’humain, plus elle sera à même d’imiter le comportement humain.

En un mot, voici comment fonctionnent les générateurs de parole IA modernes. Plus ils sont exposés à des données vocales, plus ils parviennent à imiter la parole humaine. Grâce aux récents progrès technologiques, les logiciels de synthèse vocale de pointe peuvent essentiellement reproduire les sons qui leur sont transmis.

Comment les acteurs malveillants utilisent-ils les générateurs de parole d'intelligence artificielle ?

Comme prévu, cette technique est utilisée de manière abusive par les acteurs menaçants. Pas seulement les cybercriminels au sens classique du terme, mais aussi les agents de désinformation, les escrocs, les spécialistes du marketing chapeau noir et les trolls.

Au moment où ElevenLabs a publié une version bêta de son logiciel de synthèse vocale en janvier 2023, les trolls d'extrême droite du forum 4chan ont commencé à en abuser. Ils ont utilisé cette technologie avancée d’intelligence artificielle pour reproduire les voix de célébrités telles que le présentateur de la BBC David Attenborough et la célèbre actrice Emma Watson, donnant l’impression que ces célébrités livraient des tirades vicieuses et haineuses.

Comme le rapportait à l'époque le média informatique étranger Vice, ElevenLabs avait admis que certaines personnes abusaient de son logiciel, notamment de la fonction de clonage vocal. Cette fonctionnalité permet à n'importe qui de « cloner » la voix d'une autre personne ; il vous suffit de télécharger un enregistrement d'une minute et de laisser l'IA faire le reste. Vraisemblablement, plus la durée d’enregistrement est longue, plus le résultat sera réaliste.

En mars 2023, une vidéo virale sur TikTok a attiré l'attention du New York Times Magazine. Dans cette vidéo, le célèbre animateur de podcast Joe Rogan et le Dr Andrew Huberman, un invité fréquent de son émission The Joe Rogan Experience, discutent d'une boisson à la caféine « améliorant la libido ». Cette vidéo donne l'impression que Rogan et Huberman soutiennent clairement ce produit. En fait, leurs voix ont été clonées grâce à l’intelligence artificielle.

À peu près au même moment, la Silicon Valley Bank, basée à Santa Clara, en Californie, s'est effondrée en raison d'erreurs de gestion des risques et d'autres problèmes et a été reprise par l'État. Il s’agit de la pire faillite bancaire américaine depuis la crise financière de 2008 et elle a provoqué une onde de choc sur les marchés mondiaux.

Ce qui fait encore plus paniquer les gens, c'est un faux enregistrement du président américain Biden. Dans l’enregistrement, on peut clairement entendre Biden avertir d’un « effondrement » imminent et demander au gouvernement américain d’« utiliser pleinement le pouvoir des médias pour rassurer le public ». Des sites de recherche de vérité comme PolitiFact ont rapidement démystifié la vidéo, mais des millions de personnes pourraient désormais avoir écouté l'enregistrement.

Si les générateurs de voix IA peuvent être utilisés pour usurper l’identité de célébrités, ils peuvent également être utilisés pour usurper l’identité de civils, ce qui est exactement ce que font les cybercriminels. Selon le média informatique étranger ZDNet, des milliers d’Américains tombent chaque année dans le piège du phishing vocal. En 2023, un couple âgé a fait la une des journaux nationaux lorsqu’il a reçu un appel téléphonique de son « petit-fils », qui prétendait être en prison et leur demandait de l’argent.

Si vous avez déjà mis en ligne une vidéo YouTube (ou été présenté dans une vidéo YouTube), participé à une conférence téléphonique en grand groupe avec un groupe de personnes que vous ne connaissez pas, ou téléchargé votre voix sur Internet, théorie Venez dire que vous ou un ami ou un membre de votre famille êtes peut-être en danger. Que pouvez-vous faire pour empêcher les fraudeurs de télécharger votre voix sur un générateur d'IA, de la cloner, puis de se faire passer pour vous pour contacter votre famille ?

Le générateur de sons d'intelligence artificielle bouleverse le paysage de la sécurité des réseaux

Ce n'est pas que vous devez être un expert en sécurité des réseaux. Réalisez à quel point l’intelligence artificielle peut être dangereuse entre de mauvaises mains. Même si cela est vrai pour toutes les technologies, l’intelligence artificielle constitue une menace unique pour plusieurs raisons.

Tout d’abord, il s’agit d’une technologie relativement nouvelle, ce qui fait que nous ne savons pas réellement ce qu’elle peut nous apporter. Les outils modernes d’intelligence artificielle permettent aux cybercriminels d’étendre et d’automatiser leurs campagnes comme jamais auparavant, tout en profitant de l’ignorance relative du public sur le sujet. En outre, l’IA générative permet aux acteurs malveillants qui manquent de connaissances et de compétences de créer du code malveillant, de créer des sites Web trompeurs, de diffuser du spam, de rédiger des e-mails de phishing, de générer des images réalistes et de générer de faux contenus audio et vidéo de longue durée.

Il est crucial que nous puissions exploiter l'IA à notre tour : l'IA est également utilisée pour protéger les systèmes, et le sera probablement pendant des décennies. Comme on pouvait s’y attendre, il y aura une sorte de course aux armements en matière d’IA entre les cybercriminels et l’industrie de la cybersécurité, car les capacités défensives et offensives de ces outils sont essentiellement égales.

Pour les gens ordinaires, la prolifération de l'IA générative nécessitera une refonte complète des pratiques de sécurité. Même si l’IA peut être passionnante et utile, elle peut au moins confondre la réalité et, au pire, exacerber les problèmes de sécurité existants et offrir une nouvelle arène aux acteurs malveillants.

Le générateur de parole démontre le potentiel disruptif de l'intelligence artificielle La discussion intelligente a commencé à s'échauffer. Toute tentative visant à contenir cette technologie nécessitera probablement une coopération internationale, exigeant un niveau de coopération que nous n’avons pas vu au cours des dernières décennies. Il est donc peu probable que l’intelligence artificielle soit contenue. Le génie est sorti de la bouteille. Tout ce que nous pouvons faire, c'est nous y habituer et nous y adapter. J'espère que l'industrie de la cybersécurité pourra procéder aux ajustements correspondants.

https://www.makeuseof.com/ai-voice-generators-security-threat

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer