Maison > Article > Périphériques technologiques > Explorez l'accord de l'UE sur la réglementation de l'intelligence artificielle
Trois jours de négociations « marathon » ont abouti. Le président du Conseil et les négociateurs viennent de parvenir à un accord sur les règles de coordination de l'intelligence artificielle, qui devrait à terme devenir le « Projet de loi sur l'intelligence artificielle pour l'intelligence artificielle ». Régulation". Le projet de règlement vise à fournir un cadre de conformité qui donne la priorité au déploiement de systèmes d’IA sûrs et respectueux des droits de l’homme dans l’UE. Ce règlement sur l’intelligence artificielle va au-delà du simple fait d’inciter les pays européens à investir et à innover dans le domaine de l’intelligence artificielle.
Le projet de loi sur l'intelligence artificielle est une législation historique qui peut créer un environnement propice dans lequel l'utilisation de l'intelligence artificielle deviendra un meilleur outil de sécurité et de confiance pour garantir la participation des acteurs institutionnels publics et privés dans toute l'UE. L’idée principale est de suivre une approche « fondée sur le risque » pour réglementer l’IA en fonction de sa capacité à nuire à la société : plus le risque est nocif, plus des restrictions doivent être mises en place. La loi crée un précédent mondial pour la réglementation de l’intelligence artificielle dans d’autres juridictions. En revanche, le RGPD y parvient de la même manière en termes de protection des données personnelles, promouvant ainsi l'approche de l'UE en matière de réglementation technologique à l'échelle mondiale.
Par rapport à la proposition initiale de la Commission européenne, les principales nouveautés de l'accord intérimaire sur la régulation de l'intelligence artificielle peuvent être résumées comme suit :
Plus précisément, l'accord intérimaire comprend les aspects suivants :
Dans le cadre de l'accord de sélection, la définition des systèmes d'intelligence artificielle cherchant à sélectionner les refuges de l'OCDE correspond aux procédures proposées. De cette manière, les normes relatives aux systèmes d’intelligence artificielle permettent de distinguer plus clairement les systèmes logiciels simples.
De plus, l'accord intérimaire explique plus en détail que les règles du règlement n'incluent pas les secteurs relevant du droit de l'UE et ne peuvent en aucun cas affaiblir les capacités des États membres en matière de sécurité nationale ou des parties partageant responsabilités dans le domaine de la sécurité nationale. De plus, la loi sur l’intelligence artificielle ne s’étendra pas aux systèmes d’intelligence artificielle utilisés uniquement à des fins militaires ou de défense. Dans le même temps, le traité stipule également que la loi s'appliquera aux systèmes d'intelligence artificielle lorsqu'ils sont utilisés non seulement à des fins scientifiques et de recherche, mais également à des fins non scientifiques et non innovantes, y compris par des techniciens ou des techniciens non spécialisés dans l'intelligence artificielle. experts.
Il crée une barrière de sécurité horizontale qui comprend le niveau 1.1 « Dommages graves/substantiels possibles aux droits » pour exclure les conséquences imprévues de cette menace pour les systèmes d'intelligence artificielle. Les systèmes d’IA qui présentent un léger risque de préjudice pour les utilisateurs seront soumis à des exigences minimales en matière de transparence. Par exemple, il devrait informer les utilisateurs que le contenu a été généré par l'intelligence artificielle afin que des décisions puissent être prises quant à l'utilisation du contenu ou à l'exécution d'autres actions.
Divers systèmes basés sur l'IA opérant sur le territoire de l'UE seront approuvés. Toutefois, certaines exigences et responsabilités doivent être respectées pour accéder au marché de l’UE. Ces colégislateurs ont ajouté et révisé certaines dispositions pour les rendre techniquement plus simples et plus claires, allégeant ainsi la charge des parties prenantes, par exemple en ce qui concerne la fourniture de données de qualité et la documentation technique que les PME doivent préparer pour certifier leur intelligence artificielle. construit en toute sécurité et conforme à la réglementation en vigueur.
Étant donné que les systèmes d'IA sont créés et livrés dans un environnement de chaîne de valeur exigeant, un accord de compromis nécessitera, entre autres, une révision de la conduite des entreprises pour refléter l'impact des différents acteurs de la chaîne (c'est-à-dire la technologie Clarification de l’étendue de la responsabilité/influence des fournisseurs et des utilisateurs du système). Il expose également comment les obligations spécifiques à l’IA découlant du projet de loi sur l’IA interagissent et entrent en conflit avec les obligations énoncées dans d’autres lois, telles que la législation européenne sur les données et la législation sectorielle.
L'application de l'intelligence artificielle sera rejetée en raison du risque élevé, interdit pour certaines utilisations de l'intelligence artificielle. Ces appareils ne seront donc pas introduits dans l’UE. Selon l'accord préliminaire, les activités interdites comprennent les technologies cognitives pour le contrôle comportemental, la collecte inutile d'images faciales sur Internet, la reconnaissance des émotions dans les institutions et l'éducation, l'évaluation sociale et les méthodes biométriques pour déterminer l'orientation sexuelle ou les croyances religieuses et certaines généalogies personnelles. à des fins policières.
Compte tenu de la particularité des organismes chargés de l'application de la loi et de la nécessité de leur utilisation d'ordinateurs dans l'exercice de leurs fonctions, plusieurs modifications ont été apportées aux recommandations de la Commission sur les règles d'IA pour les forces de l'ordre. , qui sont critiques. Tant que des mesures prudentes sont mises en place, ces changements se traduiront par la nécessité pour les opérateurs de protéger la confidentialité des informations. Un exemple de cela serait le lancement de procédures d’urgence pour les mises en œuvre de l’IA à haut risque, mais sans inclure la réalisation d’une évaluation de la conformité dans les situations d’urgence. En outre, une action spécifique a été formulée pour donner l’autorité nécessaire pour protéger les droits de l’homme et prévenir les abus liés aux applications d’intelligence artificielle.
De plus, le texte de l'accord intérimaire exprime clairement les raisons de l'utilisation de systèmes d'identification biométrique à distance en temps réel dans les lieux publics, mais uniquement pour des raisons répressives, et les autorités ne seront autorisées à le faire que dans des circonstances exceptionnelles. L'accord de compromis prévoit des garanties supplémentaires et limite ces exceptions aux cas d'assassinat de suspects, garantissant que les perquisitions ne sont effectuées qu'en cas de menaces réelles et empêchant les attaques terroristes et les perquisitions lorsque des personnes sont soupçonnées d'avoir commis les crimes les plus graves.
De nouvelles réglementations ont été formulées pour les scénarios dans lesquels les systèmes d'intelligence artificielle sont utilisés à des fins multiples, c'est-à-dire l'intelligence artificielle générale et les systèmes indépendants. Un autre système à haut risque, les voitures autonomes, est intégré à l’intelligence artificielle générale. L'accord transitoire inclut également l'AMP (GPAI). La supervision de GPA est au cœur de l’accord.
Des modèles de base, décrits comme des systèmes capables de démontrer des capacités dans des activités complexes telles que la génération de texte, la segmentation vidéo, le traitement du langage naturel, le rendu de code et bien d'autres tâches informatiques, ont également été conclus. L'accord provisoire exige que les modèles de base répondent aux exigences de décontamination avant d'être commercialisés. Les politiques requises pour construire un modèle de base « à fort impact » sont beaucoup plus strictes. Ces modèles de données moyens, avec leur échelle massive et leur complexité, leurs capacités et leurs capacités très avancées, peuvent créer des risques systémiques tout au long de la chaîne de valeur d'une entreprise. Ces risques sont partagés par toutes les entreprises participantes.
Conformément aux restrictions imposées au nouveau modèle GPAI et à la nécessité d'une surveillance standardisée au niveau de l'UE, la Commission a créé un bureau d'intelligence artificielle unique pour superviser ces technologies de pointe. Modèle d’IA, qui favorise l’établissement de spécifications et de procédures de test ainsi que l’application de règles clés dans tous les États membres. Un groupe scientifique indépendant d'experts techniques fournira des conseils au bureau GPAIAI sur le dimensionnement des modèles en développant des méthodes d'évaluation des modèles de base et des capacités techniques, en effectuant une évaluation du statut de la GPAI et des modèles de base en préparation du lancement sur le marché, et en surveillant potentiellement les problèmes liés à la base. modèles. Sécurité des matériaux.
À cette fin, la Commission sur l'intelligence artificielle, composée des États membres en tant que membres et en tant que plate-forme de coordination et organe consultatif du comité, permettra aux États membres de jouer un rôle proéminent et clé dans la mise en œuvre de la réglementation dans son domaine en tant que Code de bonnes pratiques pour le modèle de base. Enfin, un forum sera créé avec des parties prenantes individuelles représentées par des acteurs industriels, des PME, des start-ups, la société civile et des universités. Cela pourrait fournir des connaissances techniques que la Commission IA pourrait utiliser.
Les entreprises qui enfreignent la loi sur l'intelligence artificielle seront réduites et sanctionnées. Le montant minimum de l'amende est un certain montant et le montant maximum peut être un pourcentage du chiffre d'affaires annuel mondial de l'exercice précédent. Les violations des applications d'intelligence artificielle mentionnées ci-dessus seront punies d'amendes de 35 millions d'euros (7 %), les violations des obligations de la loi sur l'intelligence artificielle seront punies d'amendes de 15 millions d'euros (3 %) et la fourniture d'informations trompeuses sera puni d'une amende de 7,5 millions d'euros (1,5 %) d'amende. L'accord intérimaire prévoit néanmoins des amendes spéciales qui auront un impact moindre sur les petites et moyennes entreprises et les start-up lorsqu'elles s'engagent à respecter les dispositions de la loi sur l'intelligence artificielle.
L'accord concis avec la loi sur l'intelligence artificielle prévoit que les personnes physiques ou morales ont le droit de déposer une plainte formelle auprès de l'entité de surveillance du marché compétente. De plus, l'Agence suivra ses procédures spécifiques et prescrites dans le traitement desdites plaintes. « Transparence et protection des droits fondamentaux » Cet accord intérimaire constitue également un bon point de départ pour l’utilisation généralisée d’intelligence artificielle sophistiquée et de systèmes automatisés de détection de la vérité. Il clarifiera la portée de la mise en œuvre du système. Notamment, certains des règlements proposés par la Commission ont été modifiés pour faire référence à divers utilisateurs gouvernementaux occasionnels de systèmes d'IA à haut risque qui ont également enregistré des systèmes d'apprentissage automatique d'IA à haut risque dans les bases de données de l'UE. En plus de cela, la gamme de produits mise à jour enverra également un message aux utilisateurs utilisant le système de reconnaissance des émotions pour les informer lorsqu'ils sont exposés au système.
Cette partie du règlement a été considérablement révisée pour encourager l'innovation, ce qui constitue un aspect important de la proposition de la Commission visant à établir un cadre d'innovation plus scientifique et en constante adaptation pour garantir que l'innovation à travers l'UE établit un environnement réglementaire durable dans le cadre de ce projet.
L'accord intérimaire sur la gestion de l'intelligence artificielle prévoit que, sous réserve de certaines exceptions, les dispositions de la loi sur l'intelligence artificielle s'appliqueront pendant 2 ans à compter de la date d'entrée en vigueur.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!