Maison  >  Article  >  Périphériques technologiques  >  PwC : 11 tendances de sécurité dans ChatGPT et l'IA générative

PwC : 11 tendances de sécurité dans ChatGPT et l'IA générative

王林
王林avant
2023-05-02 10:40:061272parcourir

Récemment, les analystes de PwC ont partagé leur point de vue avec le média technologique étranger VentureBeat sur la manière dont des outils tels que l'intelligence artificielle générative et ChatGPT affecteront le paysage des menaces et sur les cas d'utilisation qui émergeront pour les défenseurs.

Ils pensent que si la capacité de l'IA à générer du code malveillant et des e-mails de phishing crée de nouveaux défis pour les entreprises, elle ouvre également la porte à une gamme de cas d'utilisation défensifs, tels que la détection des menaces, les conseils de remédiation et la protection de Kubernetes et de l'environnement Cloud. , etc.

Dans l’ensemble, les analystes sont optimistes quant à l’augmentation des cas d’utilisation défensive à long terme pour lutter contre les utilisations malveillantes de l’IA.

Voici 11 prédictions sur l’impact de l’IA générative sur la cybersécurité à l’avenir.

PwC : 11 tendances de sécurité dans ChatGPT et lIA générative

1. Utilisation malveillante de l'intelligence artificielle

Nous sommes à un point d'inflexion en ce qui concerne la manière dont nous pouvons exploiter l'intelligence artificielle, un changement de paradigme qui affecte tout le monde et tout. Lorsque l’IA est entre les mains des citoyens et des consommateurs, de grandes choses peuvent se produire.

En même temps, il peut être utilisé par des acteurs malveillants à des fins néfastes telles que des logiciels malveillants et des e-mails de phishing sophistiqués.

Compte tenu des nombreuses inconnues concernant les capacités et le potentiel futurs de l'IA, il est essentiel que les organisations développent des procédures robustes pour renforcer leur résilience contre les réseaux malveillants.

Il faut également une réglementation basée sur des valeurs sociales, stipulant que l'utilisation de cette technologie doit être éthique. Dans le même temps, nous devons être des utilisateurs « intelligents » de cet outil et réfléchir aux garanties nécessaires pour que l’IA offre une valeur maximale tout en minimisant les risques.

2. La nécessité de protéger la formation et les résultats de l'intelligence artificielle

Maintenant que l'intelligence artificielle générative a la capacité d'aider les entreprises à se transformer, il est important pour les dirigeants de comprendre comment gérer la sécurité croissante. Il est important de travailler avec une entreprise qui comprend parfaitement les considérations liées à la confidentialité.

Il y a deux raisons. Premièrement, les entreprises doivent protéger la formation à l’IA, car les connaissances uniques qu’elles acquièrent grâce à l’ajustement des modèles seront essentielles à la manière dont elles gèrent leur entreprise, fournissent de meilleurs produits et services et interagissent avec les employés, les clients et les écosystèmes.

Deuxièmement, les entreprises doivent également protéger les signaux et les réactions qu'elles reçoivent des solutions d'IA générative, car elles reflètent ce que les clients et les employés de l'entreprise font avec la technologie.

3. Développez une politique d'utilisation de l'IA générative

Lorsque vous envisagez d'utiliser votre propre contenu, vos fichiers et vos actifs pour perfectionner (affiner) un modèle d'IA générative afin qu'il puisse être utilisé dans votre ( industrie/professionnel), de nombreux cas d’usage métier intéressants émergent. De cette manière, les entreprises peuvent utiliser leur propriété intellectuelle et leurs connaissances uniques pour étendre le fonctionnement de l’IA générative.

C'est là que la sécurité et la confidentialité deviennent importantes. Pour une entreprise, la façon dont vous permettez à l’IA générative de produire du contenu doit être la confidentialité de votre entreprise. Heureusement, la plupart des plateformes d’IA générative ont cela à l’esprit dès le début et sont conçues pour inviter, produire et affiner le contenu de manière sécurisée et privée.

Cependant, tous les utilisateurs le comprennent désormais. Par conséquent, toute entreprise doit élaborer des politiques d’utilisation de l’IA générative afin d’empêcher les données confidentielles et privées de pénétrer dans les systèmes publics et établir un environnement sûr et sécurisé pour l’IA générative au sein de l’entreprise.

4. Audit de sécurité moderne

L'IA générative est susceptible de conduire à l'innovation dans le travail d'audit. L’IA générative sophistiquée a la capacité de créer des réponses qui tiennent compte de certaines situations tout en étant rédigées dans un langage simple et compréhensible.

Cette technologie offre un point unique d'information et d'orientation, tout en permettant également l'automatisation des documents et l'analyse des données pour répondre à des requêtes spécifiques - et avec une grande efficacité. C'est un résultat gagnant-gagnant.

Il est facile de voir que cette capacité peut offrir une meilleure expérience à nos employés et, par conséquent, une meilleure expérience à nos clients.

5. Accordez plus d'attention à l'hygiène des données et aux biais d'examen

Toutes les données saisies dans un système d'intelligence artificielle risquent d'être volées ou utilisées à mauvais escient. Premièrement, déterminer les données appropriées à saisir dans le système contribuera à réduire le risque de perte d’informations confidentielles et privées.

En outre, il est important de procéder à une collecte de données appropriée pour formuler des conseils détaillés et ciblés et les introduire dans le système afin que vous puissiez obtenir un résultat plus précieux.

Une fois que vous avez votre résultat, vous devez vérifier s'il existe des biais inhérents au système. Au cours de ce processus, faites appel à une équipe diversifiée de professionnels pour vous aider à évaluer tout parti pris.

Contrairement aux solutions codées ou scriptées, l'IA générative est basée sur des modèles entraînés, donc les réponses qu'ils donnent ne sont pas prévisibles à 100 %. Pour que l’IA générative produise le résultat le plus fiable, elle nécessite une collaboration entre la technologie qui la sous-tend et les personnes qui l’exploitent.

6. Suivez l'évolution des risques et maîtrisez les bases

Maintenant que l'IA générative est largement adoptée, la mise en œuvre de mesures de sécurité strictes est indispensable pour se protéger contre les acteurs menaçants. Les capacités de cette technologie permettent aux cybercriminels de créer de fausses images et d’exécuter plus facilement des attaques de logiciels malveillants et de ransomwares, et les entreprises doivent se préparer à ces défis.

Les cybermesures les plus efficaces continuent de recevoir le moins d'attention : en maintenant une cyberhygiène de base et en compactant les systèmes existants volumineux, les entreprises peuvent réduire le nombre de cybercriminels.

La consolidation des environnements d'exploitation réduit les coûts, permettant aux entreprises de maximiser leur efficacité et de se concentrer sur l'amélioration de leurs mesures de cybersécurité.

7. Créer de nouveaux emplois et de nouvelles responsabilités

Dans l'ensemble, je recommande aux entreprises d'envisager d'adopter l'IA générative plutôt que de construire des pare-feu et de la résistance -- mais avec des garanties et des mesures d'atténuation des risques appropriées. L'IA générative présente un potentiel très intéressant en termes de manière de travailler ; elle peut réellement contribuer à libérer du temps humain pour l'analyse et la création.

L'émergence de l'IA générative a le potentiel de conduire à de nouveaux emplois et responsabilités liés à la technologie elle-même - et de créer une responsabilité pour garantir que l'IA est utilisée de manière éthique et responsable.

Cela nécessitera également que les employés qui utilisent ces informations développent une nouvelle compétence : la capacité d'évaluer et d'identifier si le contenu créé est exact.

Tout comme les calculatrices sont utilisées pour des tâches simples liées aux mathématiques, de nombreuses compétences humaines doivent encore être appliquées dans l'utilisation quotidienne de l'IA générative - telles que la pensée critique et la personnalisation ciblée - pour libérer toute la puissance de l'IA générative. intelligence artificielle.

Ainsi, même si, à première vue, cela peut sembler une menace en termes de capacité à automatiser les tâches humaines, cela peut également libérer la créativité et aider les gens à exceller au travail.

8. Tirer parti de l'intelligence artificielle pour optimiser les investissements dans les réseaux

Même dans un contexte d'incertitude économique, les entreprises ne cherchent pas activement à réduire leurs dépenses en cybersécurité en 2023. Cependant, les RSSI doivent réfléchir à leurs décisions d'investissement. Est-ce plus économique ?

Ils sont confrontés à une pression pour faire plus avec moins, ce qui les amène à investir dans une technologie qui remplace les processus trop manuels de prévention et d'atténuation des risques par des alternatives automatisées.

Bien que l’IA générative ne soit pas parfaite, elle est très rapide, efficace et cohérente, et les compétences s’améliorent rapidement. En mettant en œuvre la bonne technologie de gestion des risques, telle que des mécanismes d'apprentissage automatique conçus pour une meilleure couverture et détection des risques, les organisations peuvent économiser de l'argent, du temps et des ressources humaines et être mieux à même de gérer et de résister à toute incertitude future. 9. Améliorer l'intelligence des menaces seront utilisés par les mauvais acteurs à ces fins et pour agir à l'avance.

En 2023, nous prévoyons de nouvelles améliorations en matière de renseignement sur les menaces et d'autres capacités de défense afin de tirer parti de l'IA générative pour faire le bien à la société. L’IA générative permettra des avancées fondamentales en matière d’efficacité et de prise de décision fiable en temps réel. Par exemple, l’accès aux systèmes et aux informations peut être transformé en conclusions en temps réel avec un niveau de confiance beaucoup plus élevé que les modèles d’accès et d’identité actuellement déployés.

Ce qui est certain, c'est que l'IA générative aura un impact profond sur chaque secteur et sur la façon dont les entreprises qui y travaillent fonctionnent ; PwC estime que ces progrès continueront d'être menés par l'humain et la technologie en 2023. Les progrès les plus rapides se produiront. en 2016, fixant la direction pour les décennies à venir.

10. Prévention des menaces et gestion des risques de conformité

Alors que le paysage des menaces continue d'évoluer, le secteur de la santé – une industrie regorgeant d'informations personnelles – continue de se retrouver dans la ligne de mire des acteurs de la menace.

Les dirigeants du secteur de la santé augmentent leurs cyberbudgets et investissent dans des technologies d'automatisation qui peuvent non seulement aider à prévenir les cyberattaques, mais également à gérer les risques de non-conformité et à mieux protéger les données des patients et du personnel, à réduire les coûts médicaux, à réduire les processus inefficaces, etc.

À mesure que l'IA générative continue d'évoluer, les risques et les opportunités associés à la sécurisation des systèmes de santé évoluent également, soulignant l'importance pour le secteur de la santé de renforcer ses cyberdéfenses et sa résilience à mesure qu'il adopte cette nouvelle technologie.

11. Mettre en œuvre une stratégie de confiance numérique

Le rythme de l'innovation dans les technologies comme l'IA générative, associé à un « patchwork » évolutif de réglementation et à l'érosion de la confiance institutionnelle, nécessite une approche plus stratégique .

En poursuivant une stratégie de confiance numérique, les entreprises peuvent mieux coordonner des fonctions traditionnellement cloisonnées telles que la cybersécurité, la confidentialité et la gouvernance des données, leur permettant d'anticiper les risques tout en libérant de la valeur pour l'entreprise.

À la base, le Digital Trust Framework identifie des solutions qui vont au-delà de la conformité, en donnant plutôt la priorité à la confiance et à l'échange de valeurs entre les organisations et les clients.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer