Maison > Article > Périphériques technologiques > Les premières « lignes directrices pour le développement de la sécurité des systèmes d'IA » au monde ont été publiées, proposant quatre aspects des exigences en matière de supervision de la sécurité.
Le 26 novembre 2023, les autorités de régulation de la cybersécurité de 18 pays, dont les États-Unis, le Royaume-Uni et l'Australie, ont publié conjointement les premières « Lignes directrices pour le développement de la sécurité des systèmes d'IA » au monde pour protéger les modèles d'intelligence artificielle contre les falsifications malveillantes. et a exhorté les entreprises d'IA à accorder plus d'attention à la « sécurité dès la conception » lors du développement ou de l'utilisation de modèles d'IA.
En tant que l'un des principaux participants, l'Agence américaine de cybersécurité et de sécurité des infrastructures (CISA) a déclaré que le monde connaît un point d'inflexion dans le développement rapide de la technologie de l'IA, et que la technologie de l'IA est probablement la technologie la plus influente. aujourd'hui. Cependant, garantir la cybersécurité est essentiel pour créer des systèmes d’IA sûrs, fiables et dignes de confiance. À cette fin, nous avons réuni les autorités de régulation de la cybersécurité de plusieurs pays et coopéré avec des experts techniques d'entreprises telles que Google, Amazon, OpenAI et Microsoft pour rédiger et publier conjointement cette ligne directrice, visant à améliorer la sécurité des applications technologiques de l'IA
Il est entendu que cette ligne directrice est le premier document d'orientation au monde sur la sécurité du développement des systèmes d'IA publié par une organisation officielle. Les lignes directrices exigent clairement que les entreprises d'IA doivent donner la priorité à la garantie de résultats sûrs pour leurs clients, plaider activement en faveur de mécanismes de transparence et de responsabilité pour les applications d'IA et construire la structure de gestion de l'organisation avec la conception de la sécurité comme priorité absolue. Les lignes directrices visent à améliorer la cybersécurité de l’IA et à garantir la conception, le développement et le déploiement sûrs de la technologie de l’IA.
En outre, sur la base de la longue expérience du gouvernement américain en matière de gestion des risques de cybersécurité, les lignes directrices exigent que toutes les entreprises de R&D en IA effectuent suffisamment de tests avant de publier publiquement de nouveaux outils d'IA afin de garantir que des mesures de sécurité ont été prises pour minimiser les dommages sociaux (tels que comme les préjugés et la discrimination) et les préoccupations en matière de vie privée. Les lignes directrices exigent également que les entreprises de R&D en IA s'engagent à aider les tiers à découvrir et à signaler les vulnérabilités de leurs systèmes d'IA via un système de bug bounty, afin que les vulnérabilités puissent être rapidement découvertes et réparées.
Plus précisément, les lignes directrices publiées cette fois proposent un développement de la sécurité pour Systèmes d'IA. Quatre exigences réglementaires majeures :
Les sociétés de développement d'IA ont souligné à plusieurs reprises les principes de « sécurité dès la conception » et de « sécurité par défaut » dans les lignes directrices. Cela signifie qu’ils doivent prendre des mesures proactives pour protéger les produits d’IA contre les attaques. Pour se conformer aux directives, les développeurs d'IA doivent donner la priorité à la sécurité dans leurs processus décisionnels et ne pas se concentrer uniquement sur la fonctionnalité et les performances du produit. Les directives recommandent également que les produits fournissent l'option d'application par défaut la plus sûre et communiquent clairement aux utilisateurs les risques liés au remplacement de cette configuration par défaut. De plus, comme l'exigent les lignes directrices, les développeurs de systèmes d'IA devraient être responsables des résultats des applications en aval, plutôt que de compter sur les clients pour contrôler la sécurité. composants ) manquent souvent de visibilité et d'expertise suffisantes pour comprendre, évaluer ou gérer pleinement les risques associés aux systèmes d'IA qu'ils utilisent. Par conséquent, conformément au principe de « sécurité dès la conception », les fournisseurs de composants d'IA devraient se préoccuper de la sécurité. sécurité des utilisateurs en aval de la chaîne d'approvisionnement. Responsable des conséquences. »
2. Portez une attention particulière à la sécurité de la chaîne d'approvisionnement complexeLes développeurs d'outils d'IA s'appuient souvent sur des composants tiers lors de la conception de leurs propres produits, tels que des modèles de base, ensembles de données de formation et API. Un vaste réseau de fournisseurs apportera une plus grande surface d'attaque au système d'IA, et tout maillon faible de celui-ci peut avoir un impact négatif sur la sécurité du produit. Par conséquent, les directives exigent que les développeurs évaluent pleinement les risques de sécurité lorsqu’ils décident de référencer des composants tiers. Lorsqu'ils travaillent avec des tiers, les développeurs doivent examiner et surveiller la posture de sécurité du fournisseur, exiger que le fournisseur adhère aux mêmes normes de sécurité que leur propre organisation et mettre en œuvre l'analyse et la quarantaine du code tiers importé.
Extrait demandé: « Les développeurs de systèmes critiques doivent être prêts à passer à des solutions alternatives si les composants tiers ne répondent pas aux normes de sécurité. Les entreprises peuvent utiliser des ressources telles que le guide de la chaîne d'approvisionnement du NCSC, ainsi que le logiciel. Niveau de chaîne d'approvisionnement des artefacts (SLSA) et autres ressources pour le suivi de la certification de la chaîne d'approvisionnement et du cycle de vie du développement logiciel »
3. Considérez les risques uniques rencontrés dans les applications d'IALes applications du système d'IA généreront des menaces uniques (telles que des attaques par injection rapide). ) et empoisonnement des données), les développeurs doivent donc pleinement prendre en compte les facteurs de sécurité uniques des systèmes d’IA. Un élément important d'une approche « sécurisée dès la conception » des systèmes d'IA consiste à mettre en place des garde-fous de sécurité pour la sortie du modèle d'IA afin d'empêcher la fuite de données sensibles et de limiter le fonctionnement des composants d'IA utilisés pour des tâches telles que l'édition de fichiers. Les développeurs doivent intégrer des scénarios de menaces spécifiques à l'IA dans les tests préliminaires et surveiller les entrées des utilisateurs pour détecter toute tentative malveillante d'exploiter le système.
Extrait demandé : « Le terme « apprentissage automatique contradictoire » (AML) est utilisé pour décrire l'exploitation des vulnérabilités de sécurité dans les composants d'apprentissage automatique, notamment le matériel, les logiciels, les flux de travail et les chaînes d'approvisionnement. L'AML permet aux attaquants d'exploiter les capacités d'apprentissage automatique. Des comportements inattendus sont provoqués dans le système, notamment : affecter les performances de classification ou de régression du modèle, permettre aux utilisateurs d'effectuer des opérations non autorisées et extraire des informations sensibles sur le modèle "
Extrait de la demande : « Lorsque cela est nécessaire, les développeurs de systèmes d'IA peuvent signaler les problèmes de sécurité qu'ils rencontrent au communauté plus large, par exemple, publier des annonces en réponse aux divulgations de vulnérabilités, y compris des énumérations détaillées et complètes des vulnérabilités courantes. Lorsque des problèmes de sécurité sont découverts, les développeurs doivent prendre des mesures pour atténuer et résoudre les problèmes rapidement et de manière appropriée. "
Lien de référence :Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!