Maison >Périphériques technologiques >IA >Quel impact ChatGPT a-t-il sur la sécurité du réseau du centre de données ?

Quel impact ChatGPT a-t-il sur la sécurité du réseau du centre de données ?

WBOY
WBOYavant
2023-04-12 10:19:021096parcourir

Quel impact ChatGPT a-t-il sur la sécurité du réseau du centre de données ?

Récemment, OpenAI a lancé le chatbot ChatGPT, qui a attiré une large attention en raison de ses puissantes capacités, et beaucoup de gens pensent même que le monde a commencé à changer.

Si les étudiants pouvaient demander à ChatGPT de rédiger des articles à leur place, les étudiants auraient sûrement du mal à comprendre comment utiliser cet outil d'IA pour terminer leurs études. Parce que nous avons vu ChatGPT réussir des examens de faculté de droit, des examens d'école de commerce et même des examens de licence médicale. Des employés du monde entier ont commencé à l'utiliser pour rédiger des e-mails, des rapports et même du code informatique.

Cependant, actuellement ChatGPT n'est pas parfait et sa base de données n'est pas à jour, mais il est plus puissant que n'importe quel système d'intelligence artificielle avec lequel les gens ordinaires ont été en contact auparavant, et l'expérience utilisateur est plus conviviale que l'intelligence artificielle. des systèmes au niveau de l’entreprise.

Il semble qu'une fois qu'un grand modèle de langage comme ChatGPT devient suffisamment grand et dispose de suffisamment de données d'entraînement, de suffisamment de paramètres et de suffisamment de couches dans son réseau neuronal, des choses étranges commencent à se produire. Il développe des « fonctionnalités » qui ne sont ni évidentes ni possibles dans des modèles plus petits. En d’autres termes, il commence à agir comme s’il avait du bon sens et une compréhension du monde – ou du moins quelque chose qui s’en rapproche.

À travers l’actualité récente, nous pouvons voir de grandes entreprises technologiques se précipiter pour réagir. Microsoft a investi 10 milliards de dollars dans OpenAI et a ajouté la fonction ChatGPT à Bing, faisant ainsi du moteur de recherche, longtemps inactif, redevenu un sujet.

Google a également annoncé ses propres projets en matière de chatbots IA et a investi dans le concurrent d'OpenAI Anthropic, fondé par d'anciens employés d'OpenAI et possédant son propre chatbot Claude.

Amazon a annoncé son intention de créer son propre concurrent ChatGPT et a annoncé un partenariat avec une autre startup d'IA, Hugging Face. Meta de Facebook suivra également rapidement son propre plan de travail en matière d’IA.

En attendant, heureusement, cette nouvelle technologie est également accessible aux experts en sécurité. Ils peuvent l'utiliser pour la recherche, aider à la rédaction d'e-mails et de rapports, aider à l'écriture de code et bien d'autres façons que nous approfondirons.

Mais ce qui est inquiétant, c'est que les méchants l'utilisent également pour toutes ces choses, ainsi que pour le phishing et l'ingénierie sociale. Ils utilisent également ChatGPT pour les aider à créer des deepfakes à une échelle et avec une fidélité inimaginables il y a quelques mois à peine. ChatGPT lui-même peut également constituer une menace pour la sécurité.

Discutons ensuite des sujets de sécurité que ces outils d'IA peuvent apporter au centre de données, en commençant par les moyens utilisés par les acteurs malveillants et, dans certains cas, ils utilisent déjà ChatGPT. Nous explorons ensuite les avantages et les dangers de l’utilisation d’outils d’intelligence artificielle comme ChatGPT pour les professionnels de la cybersécurité.

Dans quelle mesure les acteurs malveillants utilisent ChatGPT

Il ne fait aucun doute que des acteurs malveillants utilisent déjà ChatGPT. Alors, comment ChatGPT peut-il être utilisé pour stimuler les cyberattaques ? Dans une enquête BlackBerry IT Leaders Survey publiée en février, 53 % des personnes interrogées ont déclaré que cela aiderait les pirates à créer des e-mails de phishing plus crédibles, et 49 % ont noté sa capacité à aider les pirates à améliorer leurs compétences en codage.

Autre résultat de l'enquête : 49 % des décideurs informatiques et en matière de cybersécurité ont déclaré que ChatGPT serait utilisé pour diffuser des informations erronées et de la désinformation, et 48 % pensaient qu'il pourrait être utilisé pour créer des logiciels malveillants entièrement nouveaux. 46 % des personnes interrogées ont déclaré que ChatGPT pourrait contribuer à améliorer les attaques existantes.

Dion Hinchcliffe, vice-président et analyste principal chez Constellation Research a déclaré : « Nous voyons des codeurs et même des non-codeurs utiliser ChatGPT pour générer des vulnérabilités exploitables

Après tout, les modèles d'IA ont lu tout ce qui est publié publiquement. Cela inclut « chaque rapport de recherche sur les vulnérabilités », a déclaré Hinchcliffe, « et chaque discussion sur le forum de chaque expert en sécurité. C'est comme un super cerveau qui peut compromettre les systèmes de toutes sortes de manières.

C'est une perspective effrayante. »

Et, bien sûr, les attaquants peuvent également l'utiliser pour écrire, a-t-il ajouté. "Nous allons être inondés de désinformations et de contenus de phishing de partout."

Comment ChatGPT peut aider les professionnels de la sécurité des centres de données

Pour les professionnels de la cybersécurité des centres de données utilisant ChatGPT, a déclaré Jim Reavis, PDG de la Cloud Security Alliance, qui a été témoin d’incroyables expériences virales avec des outils d’IA au cours des dernières semaines.

« Vous pouvez le voir écrire beaucoup de code pour l'orchestration de la sécurité, les outils d'automatisation et de réponse, le DevSecOps et l'hygiène générale des conteneurs cloud », a-t-il déclaré. "ChatGPT génère un grand nombre de politiques de sécurité et de confidentialité. Peut-être, plus particulièrement, effectuons-nous de nombreux tests afin de créer des e-mails de phishing de haute qualité, dans l'espoir de rendre nos défenses plus résilientes à cet égard

Aussi, Reavis." Cela dit, plusieurs grands fournisseurs de cybersécurité disposent déjà ou disposeront bientôt d’une technologie similaire dans leurs moteurs, formés selon des règles spécifiques.

"Nous avons déjà vu des outils dotés de capacités d'interface en langage naturel, mais il n'y a pas eu d'interface largement ouverte et orientée client pour ChatGPT", a-t-il ajouté. "J'espère voir bientôt des solutions commerciales s'interfacer avec ChatGPT, mais je pense que le point idéal en ce moment est l'intégration système de plusieurs outils de sécurité réseau avec ChatGPT et l'automatisation de la sécurité DIY dans le cloud public." ses pairs sont très prometteurs en aidant les équipes de cybersécurité des centres de données à fonctionner plus efficacement, à faire évoluer des ressources limitées et à identifier de nouvelles menaces et attaques.

« Au fil du temps, presque toutes les fonctionnalités de cybersécurité seront améliorées grâce à l'apprentissage automatique », a déclaré Reavis. "De plus, nous savons que les acteurs malveillants utilisent des outils comme ChatGPT et supposons que vous devrez exploiter un outil pour lutter contre l'IA malveillante."

Comment les fournisseurs de sécurité de messagerie utilisent ChatGPT

Par exemple, le fournisseur de sécurité de messagerie Mimecast utilise déjà de grandes modèles de langage pour générer des e-mails synthétiques afin de former ses propres outils d'IA de détection de phishing.

«Nous utilisons généralement de vrais e-mails pour entraîner nos modèles», a déclaré Jose Lopez, scientifique en chef des données et ingénieur en apprentissage automatique chez Mimecast.

La création de données synthétiques pour les ensembles de formation est l'un des principaux avantages des grands modèles de langage comme ChatGPT. "Nous pouvons désormais utiliser ce grand modèle linguistique pour générer davantage d'e-mails", a déclaré Lopez.

Cependant, il a refusé de révéler quel modèle de langage spécifique à grande échelle utilise Mimecast. Il a déclaré que ces informations constituaient « l’arme secrète » de l’entreprise.

Cependant, Mimecast n'a pas pour l'instant l'intention de détecter si les emails entrants ont été générés par ChatGPT. C'est parce que ce ne sont pas seulement les mauvais acteurs qui utilisent ChatGPT. L’IA est un outil de productivité incroyablement utile que de nombreux employés utilisent pour améliorer leurs propres communications parfaitement légales.

Par exemple, Lopez lui-même est espagnol et utilise désormais ChatGPT au lieu d'un vérificateur de grammaire pour améliorer son écriture.

Lopez utilise également ChatGPT pour aider à écrire du code – ce que font probablement de nombreux professionnels de la sécurité.

« Dans mon travail quotidien, j'utilise ChatGPT tous les jours car c'est vraiment utile pour la programmation », a déclaré Lopez. "Parfois, c'est faux, mais c'est assez souvent juste pour ouvrir votre esprit à d'autres méthodes. Je ne pense pas que ChatGPT transformera des personnes incompétentes en super hackers."

L'essor des outils de sécurité basés sur l'IA

OpenAI a commencé à travailler sur améliorer la précision du système. Microsoft lui donne accès aux dernières informations sur le web via Bing Chat.

Lopez a ajouté que la prochaine version constituera un énorme bond en avant en termes de qualité. De plus, une version open source de ChatGP sera bientôt disponible.

« Dans un avenir proche, nous pourrons affiner les modèles pour des choses spécifiques », a-t-il déclaré. « Désormais, vous n'avez plus qu'un marteau : vous disposez de toute une suite d'outils. »

Par exemple, les entreprises peuvent affiner leurs modèles pour surveiller les activités pertinentes sur les réseaux sociaux et rechercher des menaces potentielles. Seul le temps nous dira si les résultats sont meilleurs que les méthodes actuelles.

Il devient également plus facile et moins coûteux d'ajouter ChatGPT aux logiciels existants ; le 1er mars, OpenAI a publié une API permettant aux développeurs d'accéder à ChatGPT et au modèle de synthèse vocale Whisper.

De manière générale, les entreprises adoptent rapidement des outils de sécurité basés sur l'IA pour lutter contre les menaces en évolution rapide à une échelle plus grande que jamais.

Selon la dernière enquête Mimecast, 92 % des entreprises utilisent déjà ou envisagent d'utiliser l'intelligence artificielle et l'apprentissage automatique pour renforcer leur cybersécurité.

En particulier, 50 % pensent que son utilisation permet de détecter les menaces avec plus de précision, 49 % pensent que la capacité à bloquer les menaces peut être améliorée et 48 % pensent que les attaques peuvent être corrigées plus rapidement lorsqu'elles se produisent.

81 % des personnes interrogées ont déclaré que les systèmes d'IA qui fournissent des alertes contextuelles en temps réel aux utilisateurs d'outils de messagerie et de collaboration seraient une énorme aubaine.

« 12 % ont même déclaré que les avantages d'un tel système révolutionneraient la façon dont la cybersécurité est pratiquée », indique le rapport

Ketaki Borade, analyste principal de la pratique de cybersécurité d'Omdia, a déclaré que les outils d'intelligence artificielle comme ChatGPT peuvent également aider à fermer la porte. pénurie de compétences en cybersécurité. "Si les astuces sont fournies correctement, l'utilisation de tels outils peut accélérer des tâches plus simples et des ressources limitées peuvent être concentrées sur des problèmes plus urgents et plus prioritaires."

"Ces grands modèles de langage constituent un changement de paradigme fondamental", a déclaré Yale Fox, membre de l'IEEE et fondateur et PDG d'Applied Science Group. "La seule façon de contrer les attaques malveillantes basées sur l'IA est d'utiliser l'IA dans la défense. Les responsables de la sécurité des centres de données doivent renforcer les compétences des ressources de cybersécurité existantes et trouver du nouveau personnel spécialisé dans l'IA

Utiliser ChatGPT dans le danger du centre de données

." Comme mentionné précédemment, les outils d'IA tels que ChatGPT et Copilot peuvent aider les professionnels de la sécurité à écrire du code, les rendant ainsi plus efficaces. Cependant, selon une étude récente de l'Université Cornell, les programmeurs qui utilisent un assistant IA sont plus susceptibles de créer du code dangereux tout en le considérant comme plus sécurisé que ceux qui ne l'utilisent pas.

Ce n'est que la pointe de l'iceberg en ce qui concerne les inconvénients potentiels de l'utilisation de ChatGPT sans tenir compte des risques.

Il existe plusieurs instances bien connues de ChatGPT ou de Bing Chat qui sont très confiantes dans leur capacité à fournir des informations incorrectes, à établir des statistiques et des citations, ou à fournir des explications complètement fausses sur des concepts spécifiques.

Les personnes qui lui font aveuglément confiance peuvent se retrouver dans une très mauvaise situation.

"Si vous utilisez un script développé par ChatGPT pour effectuer la maintenance sur 10 000 machines virtuelles et que le script contient des erreurs, vous aurez des problèmes majeurs", a déclaré Reavis de la Cloud Security Alliance.

Risque de violation de données

Un autre risque potentiel pour les professionnels de la sécurité des centres de données utilisant ChatGPT est la violation de données.

La raison pour laquelle OpenAI rend ChatGPT gratuit est qu'il apprend des interactions avec les utilisateurs. Ainsi, par exemple, si vous demandez à ChatGPT d'analyser la situation de sécurité de votre centre de données et d'identifier les points faibles, vous avez désormais appris à ChatGPT toutes vos vulnérabilités de sécurité.

Prenons maintenant une enquête de février du réseau social professionnel Fishbowl, qui a révélé que 43 % des professionnels utilisent ChatGPT ou des outils similaires au travail, contre 27 % il y a un mois. S’ils le faisaient, 70 % n’en parleraient pas à leur patron. Le risque potentiel pour la sécurité est donc élevé.

C'est pourquoi JPMorgan Chase, Amazon, Verizon, Accenture et de nombreuses autres entreprises auraient interdit à leurs employés d'utiliser l'outil.

La nouvelle API ChatGPT d'OpenAI publiée ce mois-ci permettra aux entreprises de garder leurs données privées et de choisir de ne pas les utiliser pour la formation, mais rien ne garantit qu'aucune fuite accidentelle ne se produira.

À l'avenir, une fois qu'une version open source de ChatGPT sera disponible, les centres de données pourront l'exécuter localement, derrière leurs pare-feu, évitant ainsi une éventuelle exposition à des tiers.

Questions éthiques

Enfin, Carm Taglienti, un ingénieur distingué chez Insight, a déclaré qu'il existe des risques éthiques potentiels liés à l'utilisation de la technologie de type ChatGPT pour sécuriser les centres de données internes.

«Ces modèles sont très efficaces pour comprendre comment nous communiquons en tant qu'humains», a-t-il déclaré. Par conséquent, les outils de type ChatGPT ayant accès aux communications des employés peuvent être en mesure de découvrir des intentions et des sous-textes indiquant des menaces potentielles.

"Nous travaillons dur pour empêcher les piratages du réseau et de l'environnement interne. De nombreuses violations se produisent parce que des gens sortent avec des trucs", a-t-il déclaré.

Il a ajouté que quelque chose comme ChatGPT « pourrait être très précieux pour une organisation ». "Mais maintenant, nous entrons dans cet espace éthique où les gens vont me profiler et surveiller tout ce que je fais.

C'est un avenir de type Minority Report pour lequel les centres de données ne sont peut-être pas prêts."

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer