Maison > Article > Périphériques technologiques > Comment gérer les risques et la sécurité de l'IA ?
Des ensembles de données volumineux et sensibles sont souvent utilisés pour entraîner des modèles d’IA, créant ainsi des risques de confidentialité et de fuite de données. L’utilisation de l’intelligence artificielle augmente les vecteurs de menace d’une organisation et étend sa surface d’attaque. L’IA crée en outre de nouvelles opportunités permettant à des erreurs bénignes d’avoir un impact négatif sur les modèles et les résultats commerciaux.
Les risques qui ne sont pas compris ne peuvent être atténués. Une récente enquête Gartner auprès des responsables de la sécurité de l'information a révélé que la plupart des organisations n'ont pas pris en compte les nouveaux risques de sécurité et commerciaux posés par l'intelligence artificielle ni les nouveaux contrôles qu'elles doivent mettre en place pour atténuer ces risques. L’intelligence artificielle nécessite de nouvelles mesures de gestion des risques et de la sécurité ainsi que de nouveaux cadres d’atténuation.
Voici les cinq principales priorités sur lesquelles les responsables de la sécurité et des risques devraient se concentrer pour gérer efficacement les risques et la sécurité de l'IA au sein de leurs organisations :
Les modèles d'apprentissage automatique pour la plupart des utilisateurs sont opaques et contrairement aux modèles classiques. systèmes logiciels, leur fonctionnement interne est inconnu même des experts les plus qualifiés. Les data scientists et les développeurs de modèles comprennent souvent ce que leurs modèles d'apprentissage automatique tentent de faire, mais ils ne peuvent pas toujours déchiffrer la structure interne ou les moyens algorithmiques par lesquels le modèle traite les données.
Ce manque de compréhension limite considérablement la capacité d’une organisation à gérer les risques liés à l’IA. La première étape de la gestion des risques liés à l’IA consiste à répertorier tous les modèles d’IA utilisés dans l’organisation, qu’il s’agisse de composants de logiciels tiers, développés en interne ou accessibles via des applications Software-as-a-Service. Cela devrait inclure l’identification des interdépendances entre les différents modèles. Les modèles sont ensuite classés en fonction de leur impact opérationnel, en tenant compte du fait que les contrôles de gestion des risques peuvent être appliqués progressivement en fonction des priorités identifiées.
Une fois les modèles disposés, l'étape suivante consiste à les rendre aussi interprétables ou explicables que possible. « Explicabilité » désigne la capacité à générer des détails, des raisons ou des explications qui clarifient la fonctionnalité du modèle pour un public spécifique. Cela fournira aux gestionnaires des risques et de la sécurité un environnement pour gérer et atténuer les risques commerciaux, sociaux, de responsabilité et de sécurité découlant des résultats du modèle.
La sensibilisation des employés est un élément important de la gestion des risques liés à l'intelligence artificielle. Tout d’abord, laissez tous les acteurs, y compris les RSSI, les responsables de la protection de la vie privée, les responsables des données, ainsi que les responsables juridiques et de conformité, recalibrer leur mentalité à l’égard de l’IA. Ils doivent comprendre que l’IA « ne ressemble à aucune autre application » : elle présente des risques uniques et nécessite des contrôles spécifiques pour atténuer ces risques. Ensuite, engagez-vous avec les parties prenantes de l’entreprise pour mieux comprendre les risques liés à l’IA qui doivent être gérés.
Travailler avec ces parties prenantes pour déterminer la meilleure façon de développer les connaissances en IA au sein des équipes et au fil du temps. Par exemple, voyez si vous pouvez ajouter un cours sur les concepts de base de l’IA au système de gestion de l’apprentissage de votre entreprise. Travaillez avec les services de sécurité des applications et des données pour aider à développer les connaissances en IA parmi tous les membres de l'organisation.
Selon une récente enquête de Gartner, la confidentialité et la sécurité ont été considérées comme les principaux obstacles à la mise en œuvre de l'intelligence artificielle. L’adoption de procédures de protection des données et de confidentialité peut éliminer efficacement l’exposition des données internes et partagées au sein de l’IA.
Il existe toute une gamme de méthodes pour accéder et partager des données essentielles tout en répondant aux exigences de confidentialité et de protection des données. Déterminez quelle technologie de confidentialité des données, ou quelle combinaison de technologies, est la plus adaptée aux cas d’utilisation spécifiques de votre organisation. Par exemple, étudiez des techniques telles que le masquage des données, la génération de données synthétiques ou la confidentialité différentielle.
Les exigences en matière de confidentialité des données doivent être respectées lors de l'exportation ou de l'importation de données vers des organisations externes. Dans ces scénarios, des techniques telles que le chiffrement entièrement homomorphique et le calcul multipartite sécurisé devraient être plus utiles que la protection des données contre les utilisateurs internes et les data scientists.
Les modèles d'IA nécessitent des processus spéciaux dans le cadre des opérations de modèle ou ModelOps pour rendre l'intelligence artificielle fiable et efficace. À mesure que les facteurs environnementaux continuent d’évoluer, les modèles d’IA doivent surveiller en permanence les fuites de valeur commerciale et les résultats imprévisibles (et parfois négatifs).
Une surveillance efficace nécessite une compréhension des modèles d'IA. Des processus dédiés de gestion des risques doivent devenir partie intégrante de ModelOps pour rendre l’IA plus fiable, plus précise, plus équitable et plus résiliente face aux attaques contradictoires ou aux erreurs bénignes.
Les contrôles doivent être appliqués en continu – par exemple, tout au long du développement, des tests et du déploiement du modèle, ainsi que des opérations en cours. Des contrôles efficaces détecteront les comportements malveillants, les erreurs bénignes et les modifications involontaires des données ou des modèles d'IA qui entraînent des injustices, de la corruption, des inexactitudes, de mauvaises performances et prédictions des modèles, ainsi que d'autres conséquences imprévues.
Détecter et bloquer les attaques contre l’intelligence artificielle nécessite de nouvelles technologies. Les attaques malveillantes contre l'IA peuvent entraîner des dommages et des pertes organisationnels importants, notamment financiers, de réputation ou de données liées à la propriété intellectuelle, des données clients sensibles ou des données propriétaires. Les responsables d'applications travaillant avec la sécurité doivent ajouter des contrôles à leurs applications d'IA pour détecter les entrées de données anormales, les attaques malveillantes et les erreurs de saisie bénignes.
Appliquez un ensemble complet de contrôles de sécurité d'entreprise traditionnels autour des modèles et des données d'IA, ainsi que de nouvelles mesures d'intégrité pour l'IA, telles que des modèles de formation qui tolèrent l'IA contradictoire. Enfin, utilisez la technologie de détection de fraude, d’anomalies et de détection de robots pour empêcher l’empoisonnement des données de l’IA ou la détection d’erreurs de saisie.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!