Maison > Article > Périphériques technologiques > Directement sur le site du RSAC : Les outils d'intelligence artificielle sont devenus le sujet le plus brûlant cette année !
Il y avait un sujet brûlant lors de la conférence RSAC de cette année à San Francisco : les outils d’intelligence artificielle. Le potentiel de l’intelligence artificielle générative dans les outils de cybersécurité a suscité l’intérêt des professionnels de la cybersécurité. Mais des questions ont été soulevées quant à l’application pratique de l’IA en matière de cybersécurité, ainsi qu’à la fiabilité des données utilisées pour créer des modèles d’IA.
M.K. Palmore, consultant stratégique en cybersécurité et membre du conseil d'administration de Google Cloud et Cyversity, a déclaré dans une interview : Nous sommes actuellement dans la première phase de lutte contre l'intelligence artificielle. Nous ne savons pas encore quelle sera l'ampleur de l'impact de l'intelligence artificielle. être sur l’industrie de la cybersécurité. Aucune idée des résultats que nous verrons à la fin. Mais nous espérons que l’ensemble de l’entreprise évolue actuellement dans une direction qui montre également que nous voyons la valeur et l’utilisation de l’intelligence artificielle pour avoir un impact positif sur l’industrie.
Cependant, Palmore a également admis qu'il nous restait encore beaucoup à faire dans le développement de l'intelligence artificielle. Il estime qu’à mesure que les choses changent et se développent, nous devons tous nous adapter à ce nouveau modèle et mettre à notre disposition ces grands modèles de langage (llm) et l’intelligence artificielle. Dan Lohrmann, responsable de la sécurité de l'information chez Presidio, estime que l'intelligence artificielle en est encore à ses débuts en matière de cybersécurité. Lorsque le sujet des outils d’intelligence artificielle a été évoqué lors de la conférence RSAC, il a estimé que ce serait une révolution et que l’intelligence artificielle modifierait une grande partie des produits. Cela pourrait changer l’offensive et la défense, tout comme la façon dont nous construisons nos équipes rouges et bleues.
De plus, il a noté qu'il reste encore beaucoup de chemin à parcourir en termes de rationalisation des outils utilisés par les équipes de sécurité. Il a déclaré : « Je ne pense pas que nous parviendrons un jour à une vision unique pour la surveillance et la gestion des ressources, mais c'est aussi simple que je l'ai jamais vu
Pendant le RSAC 2023. , De nombreuses entreprises ont décrit comment elles utilisent l'intelligence artificielle générative dans les outils de sécurité. Par exemple, Google a lancé son outil d'intelligence artificielle générative et de sécurité LLM, Sec-PaLM, qui s'appuie sur Mandiant pour détecter les vulnérabilités et les logiciels malveillants
Stephen Hay, directeur. de l'expérience utilisateur chez Google Cloud, a déclaré que les LLM ont maintenant atteint un point critique où ils peuvent faire des choses qu'ils ne pouvaient pas faire auparavant pour contextualiser les informations. Cela signifie que nous disposons désormais d'une véritable intelligence artificielle générative
En même temps, Mark. Ryland, directeur du bureau du responsable de la sécurité des informations d'Amazon Web Services, a souligné comment utiliser l'intelligence artificielle pour détecter les activités de menace et minimiser les faux positifs chaque jour, et le seul moyen d'y parvenir efficacement est de le faire. pour former l'apprentissage automatique, qui est au cœur de nos services de sécurité.
Un nouvel outil de construction sur AWS appelé Amazon Bedrock inclut l'intelligence artificielle générative. Amazon Bedrock est un nouveau service avec accès aux API d'AI21 Labs, Anthropic, Stability AI et Amazon. Foundation Model (fm). En outre, Tenable a lancé un outil de sécurité génératif conçu spécifiquement pour la communauté des chercheurs. En outre, un rapport intitulé « Comment l'IA générative transforme la recherche en matière de sécurité » a été récemment publié. et accroître l'efficacité dans des domaines de recherche tels que l'ingénierie inverse, le débogage du code, l'amélioration de la sécurité des applications Web et la visibilité des outils cloud.
Le rapport note que ChatGPT évolue à un « rythme alarmant » pour les outils d'intelligence artificielle dans les plates-formes de sécurité. , responsable de la sécurité chez Tenable, a déclaré que ces outils vous permettent de créer une base de données, par exemple, si vous recherchez un test d'intrusion et que votre cible est Vous devez entrer et rechercher, mais l'intelligence artificielle peut vous aider à obtenir ces choses plus rapidement.
En outre, il a ajouté qu'il avait déjà vu certaines entreprises commencer à utiliser les LLM, tout en soulignant également que les données sur lesquelles les LLM sont basés ne sont pas nécessairement les mêmes. Validées ou exactes, des garde-fous doivent donc être mis en place à ce sujet. Les LLM construits avec leurs propres données sont plus fiables.
On craint que la liaison avec des LLM comme GPT puisse affecter la sécurité. Mais Huber a souligné que les gens n'ont pas encore eu suffisamment de temps pour comprendre les risques de l'intelligence artificielle générative. Ces outils sont tous conçus pour faciliter le travail des défenseurs, mais Ismael Valenzuela, vice-président de la recherche et du renseignement sur les menaces chez BlackBerry, a souligné les limites de l'IA générative.
Comme tout autre outil que nous utilisons en tant que défenseurs, d'autres attaquants l'utiliseront également. La meilleure façon d’utiliser ces outils d’IA générative est donc en tant qu’assistant. C'est clair que cela nous aide vraiment à grandir. Mais si vous vous attendez à ce que cela change complètement la donne, la réponse est non.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!