Maison  >  Article  >  Périphériques technologiques  >  Quelle est la tendance de développement des chatbots d’intelligence artificielle dans le domaine de la cybersécurité ?

Quelle est la tendance de développement des chatbots d’intelligence artificielle dans le domaine de la cybersécurité ?

WBOY
WBOYavant
2023-04-22 23:13:071592parcourir

Le chatbot ChatGPT lancé par OpenAI a de nombreuses utilisations utiles, mais comme toute nouvelle technologie, certaines personnes utiliseront ChatGPT à des fins néfastes.

Quelle est la tendance de développement des chatbots d’intelligence artificielle dans le domaine de la cybersécurité ?

Des tâches relativement simples comme la rédaction d'e-mails à des tâches plus complexes comme la rédaction d'articles ou la compilation de code, ChatGPT, l'outil de traitement du langage naturel basé sur l'IA d'OpenAI, a suscité un intérêt considérable depuis son lancement.

Bien sûr, ChatGPT n’est pas parfait – il est connu pour faire des erreurs lorsqu’il interprète mal les informations dont il apprend, mais beaucoup le considèrent, ainsi que d’autres outils d’IA, comme l’avenir d’Internet.

OpenAI a ajouté une entrée aux conditions d'utilisation de ChatGPT qui interdit la génération de logiciels malveillants, notamment les ransomwares, les enregistreurs de frappe, les virus ou autres logiciels conçus pour infliger un certain degré de préjudice, ainsi que les tentatives de création de spam et le ciblage des cas d'utilisation de la cybercriminalité.

Cependant, comme toute technologie innovante, certaines personnes tentent déjà d'utiliser ChatGPT à des fins néfastes.

Peu de temps après la sortie de ChatGPT, des cybercriminels publiaient sur des forums clandestins comment ChatGPT pouvait être utilisé pour mener des cyberactivités malveillantes, comme rédiger des e-mails de phishing ou aider à compiler des logiciels malveillants.

On craint que les cybercriminels tentent d'utiliser ChatGPT et d'autres outils d'intelligence artificielle (tels que Google Bard) dans le cadre de leurs efforts. Même si ces outils d’IA ne révolutionneront pas les cyberattaques, ils peuvent néanmoins aider les cybercriminels à mener des campagnes malveillantes plus efficacement.

Sergey Shykevich, responsable du renseignement sur les menaces chez le fournisseur de services de cybersécurité CheckPoint, a déclaré : « Au moins à court terme, je ne pense pas que ChatGPT créera un tout nouveau type de cyberattaque. L'accent sera mis sur l'amélioration de la rentabilité de la cyberattaque. leurs opérations quotidiennes. »

Les attaques de phishing sont la composante la plus courante des campagnes de piratage malveillant et de fraude. Que les cyberattaquants utilisent le courrier électronique pour diffuser des logiciels malveillants, des liens de phishing ou pour convaincre leurs victimes de transférer de l'argent, le courrier électronique est initialement un outil clé utilisé à des fins de coercition.

Le recours au courrier électronique signifie que les gangs criminels ont besoin d'un flux constant de contenu clair et disponible. Dans de nombreux cas, notamment dans le cas du phishing, l'objectif du cyberattaquant est de convaincre les gens de faire quelque chose, comme transférer de l'argent. Heureusement, bon nombre de ces tentatives de phishing sont désormais facilement identifiables comme du spam, mais une rédaction automatisée efficace peut rendre ces e-mails plus visibles.

La cybercriminalité est une industrie mondiale et les cybercriminels envoient des e-mails de phishing à des cibles potentielles dans le monde entier, ce qui signifie que la langue peut constituer un obstacle, en particulier pour ceux qui mènent des campagnes de spear phishing plus sophistiquées. Il a déclaré que ces campagnes reposent sur le fait que les victimes croient qu'elles parlent à un contact digne de confiance : si l'e-mail est rempli d'erreurs d'orthographe et de grammaire inhabituelles ou de signes de ponctuation étranges, les gens sont moins susceptibles de croire qu'ils parlent à un ami ou à un collègue.

Mais si l’IA est correctement exploitée, les chatbots peuvent écrire du texte pour les e-mails dans n’importe quelle langue souhaitée par le cyberattaquant.

Shykevich a déclaré : « Par exemple, le plus grand obstacle pour les cybercriminels russes est la langue – l'anglais. Ils embauchent désormais des diplômés universitaires avec une spécialisation en anglais pour écrire des articles sur des courriels de phishing ou travailler dans des centres d'appels, et ils doivent payer pour cela. ChatGPT pourrait leur faire économiser beaucoup d'argent en créant toutes sortes de messages de phishing, et je pense que c'est ce qu'ils vont rechercher. "

En théorie, certaines protections sont en place pour empêcher les abus, par exemple ChatGPT exige des utilisateurs pour enregistrer une adresse e-mail et nécessite également un numéro de téléphone pour vérifier l'inscription.

Bien que ChatGPT puisse refuser d'écrire des e-mails de phishing, il peut être invité à créer des modèles d'e-mails pour d'autres messages, qui sont souvent exploités par les cyberattaquants. De telles tentatives peuvent inclure des messages tels que l'annonce d'un bonus annuel, que des mises à jour logicielles importantes doivent être téléchargées et installées, ou que les pièces jointes doivent être consultées de toute urgence.

Adam Meyers, vice-président senior de Crowdstrike, fournisseur de cybersécurité et de renseignements sur les menaces, a déclaré : « Créer un e-mail qui convainc quelqu'un de cliquer sur un lien pour obtenir quelque chose comme une invitation à une réunion, mais si la langue maternelle n'est pas l'anglais, ce n'est pas le cas. Cela est tout à fait possible. ChatGPT peut être utilisé pour créer une invitation magnifiquement formatée et grammaticalement correcte, ce qui ne serait pas nécessairement possible si vous n'étiez pas anglophone. "

L'abus de ces outils ne se limite pas non plus au courrier électronique. Les criminels. peut l'utiliser pour aider à créer des scripts sur n'importe quelle plateforme en ligne basée sur du texte. Cela peut être un outil utile pour les cyberattaquants qui mènent des escroqueries, ou même pour les groupes de cybermenaces avancés qui tentent de mener des activités d'espionnage - en particulier pour créer de faux profils sociaux pour attirer des personnes.

Kelly Shortridge, experte en cybersécurité et technologue produit principale chez le fournisseur de cloud computing Fastly, a déclaré : « Si vous souhaitez bâtir une entreprise crédible, vous pouvez publier des déclarations commerciales apparemment raisonnables sur LinkedIn pour donner l'impression que vos clients essaient de créer une entreprise crédible. les gens d'affaires établissent des liens, alors ChatGPT est la solution idéale. les publications et les informations sont un processus qui prend du temps.

Shortridge estime que les cyberattaquants peuvent utiliser des outils d'intelligence artificielle tels que ChatGPT pour rédiger du contenu convaincant, tout en ayant l'avantage de nécessiter moins de main-d'œuvre que les efforts humains.

« Beaucoup de ces campagnes d'ingénierie sociale nécessitent beaucoup d'efforts car il faut créer ces profils », a-t-elle déclaré. Elle pense que les outils d'IA peuvent réduire considérablement les barrières à l'entrée.

"Je crois que ChatGPT peut écrire un article très convaincant", a-t-elle déclaré.

La nature de l'innovation technologique signifie que chaque fois que quelque chose de nouveau sort, il y aura toujours quelqu'un qui tentera de l'exploiter à des fins malveillantes. Même si les développeurs utilisent les moyens les plus innovants pour prévenir les abus, la nature rusée des cybercriminels et des fraudeurs signifie qu'ils peuvent trouver des moyens de contourner les protections.

Shykevich a déclaré : "Il n'y a aucun moyen d'éliminer complètement les abus. Cela ne se produira dans aucun système." Il espère mettre en évidence les problèmes potentiels de cybersécurité liés à la manière d'empêcher l'utilisation des chatbots d'intelligence artificielle à de mauvaises fins. discussion.

Il a déclaré : « ChatGPT est une technologie formidable, mais comme toute nouvelle technologie, elle comporte des risques, et il est important d'en discuter et d'en être conscient. Je pense que plus nous en parlons, plus l'openAI et les entreprises similaires le feront. Il est possible d'investir davantage dans la réduction des abus. »

Les chatbots IA tels que ChatGPT présentent également des avantages en matière de cybersécurité. Ils sont particulièrement efficaces dans le traitement et la compréhension du code. Il est donc possible de les utiliser pour aider les défenseurs à comprendre les logiciels malveillants. Puisqu’ils peuvent également écrire du code, en aidant les développeurs à mener à bien leurs projets, ces outils peuvent aider à créer plus rapidement un code meilleur et plus sécurisé, ce qui profite à tout le monde.

Jeff Pollard, analyste en chef du cabinet de recherche Forrester, a souligné que ChatGPT peut réduire considérablement le temps nécessaire pour générer des rapports d'incidents de sécurité.

"Agir plus rapidement signifie plus de temps pour faire d'autres choses - comme les tests, l'évaluation, l'enquête et la réponse, qui contribuent toutes à la taille de l'équipe de sécurité", a-t-il noté, ajoutant que les robots peuvent recommander les prochaines étapes en fonction des disponibilités. données.

"Si l'orchestration, l'automatisation et la réponse de la sécurité sont correctement configurées pour accélérer la récupération des artefacts, cela peut accélérer la détection et la réponse et aider les analystes des centres d'opérations de sécurité à prendre de meilleures décisions", a-t-il déclaré.

Les chatbots pourraient donc le faire. rendre la vie plus difficile à certaines entreprises de cybersécurité, mais il peut y avoir un côté positif.

Les médias de l'industrie ont contacté OpenAI pour commenter mais n'ont pas reçu de réponse. Cependant, les journalistes ont demandé quelles règles ChatGPT avait pour empêcher toute utilisation abusive à des fins de phishing. J'ai obtenu la réponse suivante : « Il est important de noter que même si les modèles de langage d'IA comme ChatGPT peuvent générer du texte similaire à des e-mails de phishing, ils ne peuvent pas effectuer d'actions malveillantes par eux-mêmes et nécessitent l'intention et l'action de l'utilisateur pour causer du tort. Par conséquent, il est conseillé aux utilisateurs de faire de l'exercice. faites preuve de prudence et de bon jugement lorsque vous utilisez la technologie de l’intelligence artificielle, et méfiez-vous du phishing et d’autres activités malveillantes. »

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer