Maison >Périphériques technologiques >IA >Neuf façons d'utiliser l'apprentissage automatique pour lancer des attaques

Neuf façons d'utiliser l'apprentissage automatique pour lancer des attaques

王林
王林avant
2023-04-09 12:21:091402parcourir

L'apprentissage automatique et l'intelligence artificielle (IA) deviennent des technologies essentielles pour certains outils de détection et de réponse aux menaces. Sa capacité à apprendre à la volée et à s’adapter automatiquement à la dynamique des cybermenaces responsabilise les équipes de sécurité.

Cependant, certains pirates informatiques malveillants utiliseront également l'apprentissage automatique et l'IA pour étendre leurs attaques réseau, contourner les contrôles de sécurité et découvrir de nouvelles vulnérabilités à une vitesse sans précédent, avec des conséquences dévastatrices. Les moyens couramment utilisés par les pirates pour exploiter ces deux technologies sont les suivants.

Neuf façons d'utiliser l'apprentissage automatique pour lancer des attaques

1. Spam

L'analyste d'Omida, Fernando Monténégro, a déclaré que le personnel de prévention des épidémies utilise la technologie d'apprentissage automatique pour détecter le spam depuis des décennies. "La prévention du spam est le cas d'utilisation initial le plus réussi de l'apprentissage automatique."

Si le filtre anti-spam utilisé fournit une raison pour laquelle un e-mail n'a pas été transmis ou n'a pas reçu un certain score, les attaquants peuvent alors ajuster leur comportement. Ils utilisent des outils légitimes pour rendre leurs attaques plus efficaces. "Avec suffisamment de soumissions, vous pouvez récupérer le modèle, puis adapter votre attaque pour contourner ce modèle

Les filtres anti-spam ne sont pas les seuls à être vulnérables." Tout fournisseur de sécurité qui fournit un score ou un autre résultat est exposé aux abus. "Tout le monde n'a pas ce problème, mais si vous ne faites pas attention, quelqu'un profitera de ce résultat."

2 Des e-mails de phishing plus sophistiqués

Les attaquants n'utilisent pas seulement l'apprentissage automatique pour des outils de sécurité. testez si vos e-mails passent les filtres anti-spam. Ils utilisent également l’apprentissage automatique pour créer ces e-mails. Adam Malone, partenaire de conseil en technologie d'EY, a déclaré : « Ils publient des annonces sur des forums criminels vendant ces services. Ils utilisent ces techniques pour générer des e-mails de phishing plus sophistiqués et créer de fausses personnalités pour poursuivre leurs escroqueries. annoncé comme utilisant l'apprentissage automatique, et ce n'est peut-être pas seulement une rhétorique marketing, mais c'est réel. "Vous le saurez une fois que vous l'aurez essayé", a déclaré Malone. "L'effet est vraiment bon

Les attaquants peuvent utiliser l'apprentissage automatique pour personnaliser de manière créative les e-mails de phishing afin d'empêcher ces e-mails d'être marqués comme spam." cibler les utilisateurs ont la possibilité de cliquer. Ils personnalisent bien plus que le simple texte d’un e-mail. Les attaquants utiliseront l’IA pour générer des photos, des profils de réseaux sociaux et d’autres documents qui semblent très réels, rendant ainsi les communications aussi authentiques que possible.

3. Une recherche de mot de passe plus efficace

Les cybercriminels utilisent également l'apprentissage automatique pour deviner les mots de passe. "Nous avons la preuve qu'ils utilisent des moteurs de recherche de mots de passe plus fréquemment et avec des taux de réussite plus élevés. Les cybercriminels créent de meilleurs dictionnaires pour déchiffrer les hachages volés."

Ils utilisent également l'apprentissage automatique pour identifier les contrôles de sécurité afin de pouvoir deviner les mots de passe avec moins de tentatives, augmentant ainsi la probabilité de réussir à pirater un système.

4. Deepfakes

L'utilisation abusive la plus alarmante de l'intelligence artificielle concerne les outils deepfake : des outils qui génèrent de la vidéo ou de l'audio qui peuvent paraître faux ou réels. "Être capable d'imiter la voix ou l'apparence des autres est très efficace pour tromper les gens." Le Monténégro a déclaré : "Si quelqu'un prétend être ma voix, vous serez probablement également trompé

En fait, une série de problèmes majeurs." Les cas révélés au cours des dernières années montrent que les faux fichiers audio peuvent coûter aux entreprises des centaines, des milliers, voire des millions de dollars. Murat Kantarcioglu, professeur d'informatique à l'Université du Texas, a déclaré : "Les gens recevront des appels de leurs patrons - et ce sera faux." profils et e-mails de phishing pour rendre leurs e-mails plus fiables. C'est une grosse affaire. Selon un rapport du FBI, la fraude par courrier électronique professionnel a entraîné des pertes de plus de 43 milliards de dollars depuis 2016. L'automne dernier, les médias ont rapporté qu'une banque de Hong Kong avait été victime d'une fraude et avait transféré 35 millions de dollars à un gang criminel simplement parce qu'un employé de la banque avait reçu un appel d'un directeur d'entreprise qu'il connaissait. Il reconnut la voix du directeur et autorisa le transfert sans poser de questions.

5. Neutralisez les outils de sécurité disponibles dans le commerce

De nombreux outils de sécurité couramment utilisés aujourd'hui intègrent une forme d'intelligence artificielle ou d'apprentissage automatique. Par exemple, un logiciel antivirus s’appuie sur plus que des signatures de base pour rechercher un comportement suspect. "Tout ce qui est disponible en ligne, en particulier l'open source, peut être exploité par de mauvais acteurs."

Les attaquants peuvent utiliser ces outils, non pas pour se défendre contre les attaques, mais pour modifier leur propre logiciel malveillant jusqu'à ce qu'ils puissent le contourner jusqu'à leur détection. "Les modèles d'IA ont de nombreux angles morts", a déclaré Kantarcioglu, "Vous pouvez l'ajuster en modifiant les caractéristiques de l'attaque, telles que le nombre de paquets envoyés, les ressources de l'attaque, etc."

Et les attaquants n’exploitent pas uniquement les outils de sécurité basés sur l’IA. L’IA n’est qu’une technologie parmi d’autres. Par exemple, les utilisateurs peuvent souvent apprendre à identifier les e-mails de phishing en recherchant les erreurs grammaticales. Et les vérificateurs de grammaire basés sur l’IA, comme Grammarly, peuvent aider les attaquants à améliorer leur écriture.

6. Reconnaissance

L'apprentissage automatique peut être utilisé pour la reconnaissance, permettant aux attaquants de visualiser les modèles de trafic, les défenses et les vulnérabilités potentielles d'une cible. La reconnaissance n’est pas une tâche facile et est hors de portée des cybercriminels ordinaires. "Pour utiliser l'IA à des fins de reconnaissance, il faut avoir certaines compétences. Donc, je pense que seuls les hackers d'État avancés utiliseront ces technologies.

Cependant, une fois commercialisée dans une certaine mesure, cette technologie passera le noir souterrain." Le marché est fourni en tant que service, de sorte que de nombreuses personnes peuvent en profiter. "Cela pourrait également se produire si un État-nation pirate développait une boîte à outils utilisant l'apprentissage automatique et la diffusait à la communauté criminelle", a déclaré Mellen. "Mais les cybercriminels doivent encore comprendre le rôle et l'efficacité des applications d'apprentissage automatique. C'est le seuil. pour exploitation. »

7. Agents autonomes

Si une entreprise se retrouve attaquée et déconnecte le système affecté d'Internet, le malware peut ne pas pouvoir se reconnecter à ses commandes (C2). le serveur reçoit des instructions supplémentaires. "Un attaquant peut vouloir développer un modèle intelligent qui peut persister longtemps même s'il n'est pas directement contrôlé", a déclaré Kantarcioglu, "Mais pour la cybercriminalité ordinaire, je ne pense pas que cela soit particulièrement important." 8. Empoisonnement de l'IA

Un attaquant peut tromper un modèle d'apprentissage automatique en lui fournissant de nouvelles informations. Alexey Rubtsov, chercheur associé principal au Global Risk Institute, a déclaré : « Les adversaires peuvent manipuler des ensembles de données de formation. Par exemple, ils biaisent délibérément le modèle pour que la machine apprenne dans le mauvais sens.

Par exemple, les pirates peuvent manipuler. » Les comptes d'utilisateurs piratés se connectent au système à 2 heures du matin tous les jours pour effectuer un travail inoffensif, faisant croire au système qu'il n'y a rien de suspect à travailler à 2 heures du matin, réduisant ainsi les niveaux de sécurité que les utilisateurs doivent franchir.

Le chatbot Microsoft Tay a appris à être raciste en 2016 pour une raison similaire. La même approche peut être utilisée pour entraîner un système à penser qu’un type spécifique de malware est sûr ou qu’un comportement spécifique d’un robot d’exploration est tout à fait normal.

9. AI Fuzz Testing

Les développeurs de logiciels légitimes et les testeurs d'intrusion utilisent un logiciel de test de fuzz pour générer des échantillons d'entrées aléatoires afin d'essayer de faire planter des applications ou de trouver des vulnérabilités. Les versions améliorées de ce type de logiciel utilisent l'apprentissage automatique pour générer des entrées de manière plus ciblée et organisée, par exemple en priorisant les chaînes de texte les plus susceptibles de causer des problèmes. Ce type d’outil de test de fuzz permet d’obtenir de meilleurs résultats de test lorsqu’il est utilisé par les entreprises, mais il est également plus mortel entre les mains des attaquants.

Ces techniques sont l'une des raisons pour lesquelles les mesures de cybersécurité telles que les correctifs de sécurité, l'éducation anti-phishing et la micro-segmentation restent cruciales. "C'est l'une des raisons pour lesquelles la défense en profondeur est si importante", a déclaré Mellen de Forrester. "Vous devez mettre en place plusieurs obstacles, pas seulement celui que les attaquants peuvent utiliser contre vous

Le manque d'expertise empêche les pirates malveillants." de l'exploitation de l'apprentissage automatique et de l'IA

Investir dans l'apprentissage automatique nécessite beaucoup d'expertise, et l'expertise liée à l'apprentissage automatique est actuellement une compétence rare. Et comme de nombreuses vulnérabilités ne sont toujours pas corrigées, les attaquants disposent de nombreux moyens simples pour contourner les défenses de l’entreprise.

"Il existe de nombreuses cibles à portée de main, ainsi que d'autres moyens de gagner de l'argent sans utiliser l'apprentissage automatique et l'intelligence artificielle pour lancer des attaques", a déclaré Mellen : "D'après mon expérience, dans la grande majorité des cas, les attaquants ne le sont pas." À mesure que les défenses des entreprises s’améliorent et que les pays des cybercriminels et des hackers continuent d’investir dans le développement d’attaques, la balance pourrait bientôt commencer à changer.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer