Maison > Article > Périphériques technologiques > Dix façons dont ChatGPT et l'IA générative renforcent la confiance zéro
Les PDG de fournisseurs de cybersécurité interrogés lors de la conférence RSA 2023 ont déclaré que leurs entreprises clientes reconnaissent la valeur de ChatGPT pour améliorer la cybersécurité, tandis que des inquiétudes ont également été exprimées quant au risque de divulgation accidentelle de données confidentielles. données et propriété intellectuelle. La Cloud Security Alliance (CSA) a publié le tout premier document d'orientation ChatGPT lors de la conférence, appelant le secteur à améliorer sa feuille de route en matière d'intelligence artificielle.
Connie Stack, PDG de NextDLP, a déclaré que son entreprise a enquêté sur l'utilisation de ChatGPT par les clients de Next et a constaté que 97 % des grandes entreprises ont constaté que leurs employés utilisaient l'outil. 10 % des terminaux de la plateforme Reveal de Next ont accédé à ChatGPT.
Dans une interview lors de la conférence RSA 2023, Stack a déclaré : « Ce niveau d'utilisation de ChatGPT est une grande préoccupation pour certains de nos clients car ils évaluent ce nouveau vecteur de perte de données. Certains clients Next ont choisi de le désactiver complètement. entreprise de soins de santé qui ne pouvait accepter aucun risque de fuite de propriété intellectuelle et de secrets commerciaux vers un modèle de langage génératif à grande échelle destiné au public. D'autres entreprises étaient ouvertes aux avantages potentiels et ont choisi d'utiliser ChatGPT avec parcimonie, comme l'amélioration de la chasse aux menaces en matière de perte de données. ' et soutenir la création de contenu lié à la sécurité
La technologie d'IA générative a le potentiel d'améliorer l'apprentissage et l'efficacité du travail des analystes de menaces, des chasseurs de menaces et des centres d'opérations de sécurité (SOC), ce qui est le principal moteur. obligeant les fournisseurs de sécurité réseau à se précipiter pour adopter des outils d’IA générative tels que ChatGPT. L'apprentissage continu doit être profondément intégré dans les défenses contre les menaces d'une organisation afin qu'elle puisse s'appuyer sur sa « mémoire musculaire » pour s'adapter, réagir et neutraliser une tentative d'intrusion avant qu'elle ne commence.
Le sujet le plus discuté lors de la conférence RSA 2023 est sans aucun doute le nouveau produit et son intégration ChatGPT.
Parmi les 20 fournisseurs annonçant de nouveaux produits et intégrations, les plus notables sont Airgap Networks, Google Security AI Workbench, Microsoft Security Copilot (lancé avant le salon), Recorded Future, Security Scorecard et SentinelOne.
Parmi eux, le Zero Trust Firewall (ZTFW) et ThreatGPT d’Airgap méritent particulièrement l’attention. Il est conçu pour compléter l’infrastructure de pare-feu périmétrique existante en ajoutant des couches de micro-segmentation et d’accès dédiées au cœur du réseau. Ritesh Agrawal, PDG d'Airgap, a déclaré : « Grâce à une découverte d'actifs très précise, une micro-segmentation sans agent et un accès sécurisé, Airgap fournit des informations riches pour lutter contre les menaces en constante évolution. Ce dont les clients ont désormais besoin, c'est d'une méthode facile à exploiter et sans aucun besoin. " Cette approche fonctionnelle. C'est la beauté de ThreatGPT : l'intelligence pure d'exploration de données de l'IA combinée à une interface simple en langage naturel va changer la donne pour les équipes de sécurité. "
Parmi les startups Zero Trust, Airgap est considérée comme l'une des " équipes d’ingénierie et de développement de produits les plus innovantes. ThreatGPT d'Airgap combine une base de données graphique et un modèle GPT-3 pour fournir des informations sur la cybersécurité auparavant indisponibles. La société a configuré des modèles GPT-3 pour analyser les requêtes en langage naturel et identifier les menaces de sécurité potentielles, tout en intégrant des bases de données graphiques pour fournir une intelligence contextuelle des relations de trafic entre les points de terminaison.
L’IA générative renforce le Zero Trust en identifiant et en renforçant les surfaces de menace les plus vulnérables d’une entreprise. Plus tôt cette année, le créateur de Zero Trust, John Kindervag, a suggéré dans une interview qu'« il faut commencer avec une surface protégée » et a parlé de ce qu'il a appelé « la courbe d'apprentissage du Zero Trust. On ne commence pas avec la technologie, c'est un malentendu
». Voici les moyens potentiels par lesquels l'IA générative peut améliorer le cadre de base de confiance zéro défini dans la norme NIST 800-207 :
Le directeur de la sécurité de l'information (CISO) ). cherchent à consolider leurs piles technologiques, car il existe de nombreux systèmes contradictoires en matière d'analyse des menaces, de réponse aux incidents et de systèmes d'alerte, et les analystes SOC ne savent pas exactement ce qui est le plus urgent. L'IA générative et ChatGPT se sont révélés être des outils puissants pour l'intégration d'applications. À terme, ils fourniront aux RSSI une vue unique de l’analyse des menaces et de la réponse aux incidents dans l’ensemble de leur infrastructure.
Le cœur du zéro confiance est l'identité. L’IA générative a le potentiel d’identifier rapidement si l’activité d’une identité donnée est cohérente avec son historique antérieur.
Les RSSI estiment que les intrusions les plus difficiles à arrêter commencent souvent de l'intérieur, en exploitant des identités et des informations d'identification légitimes.
L'un des principaux avantages du LLM (Large Language Model) est la capacité de découvrir des anomalies dans les données sur la base de petites tailles d'échantillon. C'est idéal pour protéger IAM, PAM et Active Directory. LLM s'est avéré efficace pour analyser les journaux d'accès des utilisateurs et détecter les activités suspectes.
Les nombreux défis liés à la réalisation correcte d'une micro-segmentation peuvent retarder de grands projets de micro-segmentation de plusieurs mois, voire de plusieurs années. Bien que la micro-segmentation du réseau soit conçue pour isoler des segments définis au sein d'un réseau d'entreprise, il s'agit rarement d'une tâche unique.
L'IA générative peut aider en déterminant la meilleure façon d'introduire des scénarios de micro-segmentation sans perturber l'accès au système et aux ressources. Mieux encore, cela peut potentiellement réduire les milliers de tickets créés dans les systèmes de gestion des services informatiques par de mauvais projets de micro-segmentation.
Les attaquants recherchent toujours des vulnérabilités entre la sécurité des points de terminaison et la gestion des identités. L'IA générative et ChatGPT peuvent aider à résoudre ce problème, en donnant aux chasseurs de menaces les informations dont ils ont besoin pour savoir quels points de terminaison sont les plus vulnérables aux compromissions.
Pour renforcer la « mémoire musculaire » des réponses de sécurité, en particulier lorsqu'il s'agit de points de terminaison, l'IA générative peut être utilisée pour apprendre en permanence comment les attaquants tentent de pénétrer dans les points de terminaison, leurs points cibles et les identités qu'ils tentent d'utiliser.
Appliquer l'IA générative pour restreindre l'accès aux ressources par identité, système et durée est l'un des cas d'utilisation améliorés par l'IA zéro confiance les plus puissants. L'interrogation de ChatGPT pour obtenir des données d'audit basées sur des profils de ressources et d'autorisations permet aux administrateurs système et aux équipes SOC d'économiser des milliers d'heures chaque année.
Un élément essentiel de l'accès au moindre privilège consiste à supprimer les comptes obsolètes. Le rapport Ivanti sur l'état de préparation en matière de sécurité 2023 révèle que 45 % des entreprises soupçonnent que leurs anciens employés et sous-traitants ont toujours un accès actif aux systèmes et aux fichiers de l'entreprise.
Le Dr Srinivas Mukkamala, directeur des produits chez Ivanti, a déclaré : « Les grandes entreprises ne prennent souvent pas en compte le vaste écosystème d'applications, de plates-formes et de services tiers qui accordent un accès bien au-delà de celui de leurs employés. « informations d'identification zombies » et un nombre alarmant de professionnels de la sécurité, même de la haute direction, ont toujours accès aux systèmes et aux données de leur ancien employeur. "
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!