Maison >Périphériques technologiques >IA >Les applications d'intelligence artificielle sont confrontées à sept menaces majeures pour la sécurité des données
Les technologies d'intelligence artificielle telles que la technologie de conduite autonome, les assistants intelligents, la reconnaissance faciale, les usines intelligentes et les villes intelligentes sont désormais largement mises en œuvre. Ces technologies incroyables changent rapidement nos vies. Cependant, les incidents de sécurité dans des domaines connexes augmentent également rapidement, ce qui inquiète de plus en plus les chercheurs et les utilisateurs quant à la sécurité de l'intelligence artificielle. Les dividendes apportés par l'application de l'intelligence artificielle et les risques de sécurité qu'elle engendre sont comme les deux faces d'une même médaille, exigeant que l'ensemble du secteur y prête une attention particulière et trouve des méthodes de réponse efficaces.
Récemment, des chercheurs en sécurité ont trié et résumé 7 menaces à la sécurité des données auxquelles la technologie de l'intelligence artificielle est souvent confrontée dans des applications pratiques.
L'empoisonnement de modèle est une forme d'attaque contradictoire conçue pour manipuler les résultats d'un modèle d'apprentissage automatique. Les acteurs malveillants peuvent tenter d’injecter des données malveillantes dans le modèle, ce qui entraîne une mauvaise classification des données et la prise de décisions incorrectes. Par exemple, les images artificielles peuvent inciter les modèles d’apprentissage automatique à les classer dans une catégorie différente de celle que les humains les avaient initialement classées (par exemple, étiqueter l’image d’un chat comme étant une souris). Des recherches ont montré qu'il s'agit d'un moyen efficace de tromper les systèmes d'IA, car il est impossible de savoir si une entrée spécifique conduira à une prédiction incorrecte avant de la produire.
Pour empêcher les acteurs malveillants de falsifier les entrées du modèle, les organisations doivent mettre en œuvre des politiques strictes de gestion des accès pour restreindre l'accès aux données de formation.
La protection de la vie privée est une question sensible qui nécessite une attention et une attention supplémentaires. Surtout lorsque le modèle d'IA contient des données de mineurs, le problème est plus compliqué. Par exemple, avec certaines options de cartes de débit destinées aux adolescents, les banques doivent garantir que leurs normes de sécurité répondent aux exigences de conformité réglementaire. Toutes les entreprises qui collectent des informations sur les clients sous quelque forme ou moyen que ce soit sont tenues de mettre en place une politique de protection des données. De cette façon, les clients peuvent savoir comment l’organisation gère leurs données. Cependant, comment les utilisateurs peuvent-ils savoir si leurs données sont utilisées par des algorithmes d’intelligence artificielle ? Très peu (ou presque aucune) de politiques de confidentialité incluent ces informations.
Nous entrons dans une ère portée par l'intelligence artificielle, et il deviendra très important que les individus comprennent comment les entreprises utilisent l'intelligence artificielle, ses capacités et son impact sur les données. De même, les attaquants peuvent tenter d'utiliser des logiciels malveillants pour voler des ensembles de données sensibles contenant des informations personnelles telles que des numéros de carte de crédit ou des numéros de sécurité sociale. Les organisations doivent effectuer régulièrement des audits de sécurité et mettre en œuvre de solides pratiques de protection des données à toutes les étapes du développement de l’IA. Les risques liés à la confidentialité peuvent survenir à n’importe quelle étape du cycle de vie des données. Il est donc important de développer une stratégie unifiée de sécurité de la confidentialité pour toutes les parties prenantes.
Les risques liés à la manipulation, à l'exposition et à la falsification des données sont constamment amplifiés dans le contexte des applications d'IA à grande échelle, car ces systèmes doivent effectuer des analyses et des décisions basées sur de grandes quantités de données, et ces données peut facilement être une manipulation ou une falsification malveillante de l'acteur. En outre, le biais algorithmique constitue un autre problème majeur rencontré dans l’application à grande échelle de l’intelligence artificielle. Les algorithmes d’IA et les programmes d’apprentissage automatique sont censés être objectifs et impartiaux, mais ils ne le sont pas.
La menace de falsification des données par les algorithmes d’intelligence artificielle est un énorme problème qui n’a pas de solution facile, mais qui mérite attention. Comment garantir que les données introduites dans l’algorithme sont exactes, fiables et non falsifiées ? Comment garantir que les données ne soient pas utilisées de manière répréhensible ? Toutes ces questions sont bien réelles, mais l’industrie n’a pas encore trouvé de réponses claires.
En termes de sécurité des données, les menaces internes sont sans aucun doute les plus dangereuses et les plus coûteuses. Selon le dernier rapport sur le coût des menaces internes : un rapport mondial, le nombre d'incidents de menaces internes a augmenté de 44 % au cours des deux dernières années, le coût moyen par incident étant de 15,38 millions de dollars.
Ce qui rend les menaces internes si dangereuses, c'est que leurs motivations ne sont pas nécessairement financières, mais peuvent être motivées par d'autres facteurs tels que la vengeance, la curiosité ou une erreur humaine. De ce fait, ils sont plus difficiles à prévoir et à arrêter que les attaquants externes.
Pour les entreprises impliquées dans la santé des citoyens, les menaces internes sont sans doute plus néfastes. Prenons l'exemple du fournisseur de services de santé HelloRache. La société utilise des outils de scribes virtuels (assistants qui assistent les médecins dans les tâches informatiques) basés sur l'IA afin qu'ils puissent aider les médecins à distance à prendre soin des patients et à documenter leurs conditions. Mais si des initiés trouvent un moyen, cela peut entraîner une mauvaise connexion du système, voire même surveiller et obtenir des informations médicales sur les patients.
Des données de recherche montrent que 86 % des entreprises ont commencé à considérer l'intelligence artificielle comme une technologie « courante » pour le développement numérique futur et ont augmenté leurs investissements dans diverses technologies d'IA basées sur les données pour aider les entreprises. Prenez de meilleures décisions, améliorez le service client et réduisez les coûts. Mais il y a un problème : les attaques délibérées contre les systèmes d’IA sont en augmentation et, sans contrôles en place, elles pourraient coûter aux organisations des millions de dollars de pertes.
Une « attaque délibérée » fait référence à l'intrusion délibérée d'un système d'intelligence artificielle pour perturber les opérations commerciales d'une organisation dans le but d'acquérir un avantage concurrentiel sur ses adversaires. Les menaces à la sécurité des données contre l’IA et le ML peuvent être particulièrement dommageables dans les scénarios d’attaques délibérées. Parce que les données utilisées dans ces systèmes sont souvent propriétaires et de grande valeur. Lorsque les systèmes d’intelligence artificielle sont ciblés et délibérément attaqués, les conséquences ne sont pas seulement le vol de données, mais aussi la destruction de la compétitivité de l’entreprise.
L'intelligence artificielle est une industrie en croissance rapide, ce qui signifie qu'elle est toujours vulnérable. À mesure que les applications d’IA deviennent plus populaires et adoptées dans le monde entier, les pirates informatiques trouveront de nouveaux moyens d’interférer avec les entrées et sorties de ces programmes. L'IA est souvent un système complexe, ce qui rend difficile pour les développeurs de savoir comment leur code fonctionnera dans diverses situations d'application. Lorsqu’il est impossible de prédire ce qui va arriver, il est difficile de l’empêcher.
La meilleure façon de protéger votre entreprise contre les menaces applicatives à grande échelle est de combiner de bonnes pratiques de codage, des processus de test et des mises à jour en temps opportun lorsque de nouvelles vulnérabilités sont découvertes. Bien entendu, n’abandonnez pas les formes traditionnelles de précautions en matière de cybersécurité, telles que l’utilisation de centres de données en colocation pour protéger les serveurs contre les attaques malveillantes et les menaces externes.
Les chercheurs ont découvert que les attaquants malveillants utilisent l'intelligence artificielle comme arme pour les aider à concevoir et à mener des attaques. Dans ce cas, « concevoir une attaque » signifie sélectionner une cible, déterminer quelles données elle tente de voler ou de détruire, puis décider d'une méthode de livraison. Les attaquants malveillants peuvent utiliser des algorithmes d'apprentissage automatique pour trouver des moyens de contourner les contrôles de sécurité afin de mener des attaques, ou utiliser des algorithmes d'apprentissage profond pour créer de nouveaux logiciels malveillants basés sur des échantillons réels. Les experts en sécurité doivent constamment se défendre contre des robots de plus en plus intelligents, car dès qu’ils déjouent une attaque, une nouvelle apparaît. En bref, l’IA permet aux attaquants de trouver plus facilement des failles dans les mesures de sécurité actuelles.
Lien de référence :
https://www.php.cn/link/d27b95cac4c27feb850aaa4070cc4675
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!