Maison > Article > Périphériques technologiques > Une législation sur l’IA est imminente, comment voyez-vous son impact sur l’industrie ?
Selon les informations du 8 juin, la loi sur l'intelligence artificielle a été incluse dans le plan législatif et le projet devrait être soumis au Comité permanent de l'Assemblée populaire nationale pour examen au cours de l'année. Dès avril, l'Administration chinoise du cyberespace a rédigé les « Mesures pour la gestion des services d'intelligence artificielle générative (projet pour commentaires) ». Les pays étrangers ont également introduit certaines réglementations sur l'AIGC. Certaines personnes peuvent penser que la menace de l'intelligence artificielle peut exister. dépasser celui de la technologie nucléaire. Mais maintenant, les applications les plus élémentaires de l'IA n'ont pas atteint le taux de pénétration d'Internet. On peut dire que la supervision est un peu précoce, et qu'elle est probablement davantage orientée vers la gestion. S'il n'y a ni gestion ni restrictions, alors la technologie de l'IA pourrait le faire. être utilisé pour certaines choses illégales.
Non seulement notre pays, mais d'autres pays sont également attentifs aux questions législatives. Le mois dernier, la télévision allemande a rapporté que la commission du marché intérieur et la commission des libertés civiles du Parlement européen ont adopté à une écrasante majorité le projet d'autorisation de négociation de la proposition de « loi sur l'IA ». le 11,
La Commission européenne a proposé ce projet de loi il y a déjà deux ans, visant à développer des normes mondiales en matière d'IA. La forme finale de la loi est également en cours de négociation avec les représentants des États membres de l'UE. Un communiqué publié par le Parlement européen indique qu'une fois approuvée, la loi deviendra le premier règlement au monde sur l'intelligence artificielle. Une fois la loi adoptée, les entreprises qui enfreignent la réglementation peuvent être condamnées à une amende pouvant aller jusqu'à 40 millions d'euros, soit 7 % de leur chiffre d'affaires annuel global. Dans les amendements à la proposition, les législateurs ont déclaré vouloir garantir que les systèmes d’IA puissent être surveillés par des humains, soient sûrs et transparents, non discriminatoires et respectueux de l’environnement.
Cette question mérite attention.
Maintenant, certaines personnes ont commencé à utiliser la technologie de l'IA pour mener des activités illégales, telles que l'utilisation d'enregistrements téléphoniques harcelants pour extraire la voix de quelqu'un, puis synthétiser la voix après avoir obtenu le matériel, afin de pouvoir tromper l'autre partie avec une fausse voix. . Un autre exemple consiste à utiliser l’IA pour changer de visage, à analyser divers types d’informations publiées par le public en ligne, à identifier une série de tromperies et à utiliser la technologie de l’IA pour filtrer les groupes cibles. Utilisation de l’IA pour changer de visage lors d’appels vidéo, fraude à la confiance, etc., ce type de fraude s’est produit à plusieurs reprises.
Régulation à gauche, innovation à droite ?
La supervision et l'innovation ne peuvent pas être séparées trop longtemps. Les deux doivent s'accompagner. Celui qui marche devant doit attendre celui qui est derrière. Il ne peut pas trop s'écarter. Dans certains cas, le système d'IA peut ne pas être en mesure de le faire. porter des jugements sur certaines informations, s'il n'y a pas de législation pour la réglementer raisonnablement, ces lacunes sont susceptibles d'être exploitées. La législation peut aider la technologie de l'IA à se développer dans un environnement raisonnable et ordonné, et certains produits ont émergé avec la technologie et les produits. , sans un système de régulation correspondant, il est difficile de résoudre les problèmes s'ils surviennent, il est donc encore nécessaire de renforcer la surveillance et la discipline du marché par la législation.
De plus, la technologie de l'IA n'a pas encore été appliquée à grande échelle, mais elle a été utilisée dans certains secteurs, tels que les soins médicaux, les transports, la finance, l'éducation, la sécurité et d'autres secteurs. Elle nous a apporté beaucoup de commodité et a permis. nous pour voir la technologie IA ou plus de possibilités pour le produit. Concernant les possibilités de la technologie ou des produits d’IA à l’avenir, nous devons connaître les défis et les risques potentiels posés par la technologie afin d’y répondre et de les réglementer raisonnablement.
Grâce au système législatif correspondant, les agences compétentes peuvent restreindre et superviser la technologie ou les produits d'IA afin d'éviter tout risque d'abus de cette technologie. De plus, avec les fabricants institutionnels de technologies d'IA, il existe également un environnement de concurrence sur le marché juste et standardisé. Une législation et des systèmes réglementaires standardisés peuvent éviter les erreurs humaines et les abus, créant ainsi un environnement réseau fiable et sûr, dans un environnement équitable. se concentrera sur la recherche et le développement de technologies de produits pour réduire l'apparition de problèmes inutiles et faire en sorte que les produits ou les technologies servent mieux l'humanité.
En fait, la résistance de chacun réside peut-être dans le fait qu’il existe encore des différends sur la méthode et le contenu de la législation. Par exemple, il est nécessaire de déterminer quelles industries doivent réellement être incluses dans la loi et comment définir si cela est illégal. De plus, sous prétexte de garantir la sécurité, cela ne peut pas affecter la recherche, le développement et la promotion de la technologie. Nous craignons qu'une supervision stricte n'affecte la compréhension de la technologie par les fabricants ou le développement et la mise en œuvre de produits. Ce à quoi nous devons finalement faire face, c’est trouver un équilibre entre la promotion de l’innovation, la récolte des bénéfices de l’IA, la réponse aux risques liés à l’IA et la protection efficace des droits.
Par conséquent, le contenu législatif peut impliquer des intérêts de plusieurs points de vue, tels que les fabricants qui développent des produits technologiques, les consommateurs, etc., les décideurs politiques devraient donc prendre en compte ces différents aspects d'intérêts lors de la formulation de la législation et adopter des procédures de consultation et de participation approfondies pour garantir. la faisabilité et l’équité de la législation. Les fabricants qui développent des produits technologiques doivent respecter les dispositions de la législation, fabriquer des produits conformément aux exigences des lois en vigueur, ou mettre à jour et itérer les produits. Ils peuvent également devoir communiquer le contenu et l'objectif de la législation pour que tout le monde sache que les produits ou les technologies sont conformes. avec les lois et réglementations pertinentes effectuées dans les circonstances. Le public qui apprécie la technologie ou les produits peut également avoir besoin de connaître le contenu de la législation pour éviter les problèmes causés par la méconnaissance des lois et réglementations pertinentes.
Comment contrôler ?
La législation sur la technologie de l'IA n'est pas statique. Elle doit être un ajustement et une amélioration à long terme. Elle doit être ajustée et améliorée lentement en fonction du développement et des mises à jour de la technologie ou des produits afin de suivre l'avancement de la technologie des produits.
La manière de contrôler est très importante. Une méthode consiste à définir hiérarchiquement les risques. Dans un ensemble de cadres juridiques sur l'intelligence artificielle proposé par la Commission européenne en avril 2021, les scénarios d'application de l'intelligence artificielle sont divisés en « minimaux et limités » selon le niveau de risque. risque. Il existe quatre niveaux de risque : , élevé et inacceptable. Plus le niveau des scénarios d’application est élevé, plus les restrictions sont strictes.
Selon le rapport, les scénarios d'application à haut risque font référence à des scénarios qui peuvent avoir un impact sérieux sur la vie et les moyens de subsistance des personnes, tels que les équipements de transport, l'éducation et la formation, l'assistance médicale, les cotes de crédit, etc. ; les systèmes biométriques à longue portée sont considérés comme présentant un risque élevé, il est interdit aux forces de l'ordre d'utiliser cette technologie dans les lieux publics, à quelques exceptions près, comme retrouver des enfants disparus ou prévenir des attentats terroristes individuels, identifier des criminels et des personnes suspectes, etc. De telles applications doivent être autorisées par le service judiciaire ou une agence indépendante ; et Certains systèmes qui menacent clairement la sécurité et la vie des personnes et portent atteinte aux droits des personnes sont classés comme scénarios de risque inacceptables, y compris les applications qui utilisent le comportement humain pour induire les utilisateurs en erreur et violer leur liberté. volonté, comme l'utilisation d'assistants vocaux pour inciter des mineurs à adopter des comportements dangereux, etc., de telles applications doivent être interdites.
Même si l'UE s'est occupée de nombreux aspects à l'époque, le projet de loi a également suscité la controverse. Par exemple, certaines personnes pensaient que les exigences et les procédures de contrôle complexes augmenteraient les coûts administratifs des entreprises, ce qui serait particulièrement préjudiciable aux petites et moyennes entreprises. des start-ups numériques de grande taille et freiné l’innovation et l’application des technologies, retardant ainsi le processus de transformation numérique de l’UE. Le projet de loi reflète le conflit inhérent à l’UE lorsqu’il s’agit de trouver un équilibre efficace entre la promotion de l’innovation et la protection des droits.
L’année dernière, les « Règlements de Shanghai sur la promotion du développement de l’industrie de l’intelligence artificielle » sont officiellement entrés en vigueur. En tant que première réglementation locale au niveau provincial dans le domaine de l'intelligence artificielle en Chine, elle mentionne également l'expression de différents niveaux de risque : elle exige une gestion par liste des produits et services d'intelligence artificielle à haut risque et le respect des principes de nécessité. , légitimité, contrôlabilité, etc. examen réglementaire. Adopter un modèle de gouvernance de divulgation ex ante et de contrôle ex post pour les produits et services d’intelligence artificielle à risque moyen et faible afin de promouvoir les essais pilotes.
En fait, la réglementation dans divers pays, qu'il s'agisse de législation ou d'autres moyens, ces définitions sont des exigences logiques inévitables pour la formulation de dispositions juridiques. L'orientation principale est que les législateurs espèrent que l'intelligence artificielle et le développement de l'industrie s'amélioreront de plus en plus. domaine médical, transport, finance, éducation, sécurité et autres domaines pour mieux nous servir au lieu d'être utilisé par des criminels.
Lu Changshun (Cairns) Certificat n° : A0150619070003. [Le contenu ci-dessus ne représente que des opinions personnelles et ne constitue pas une base pour acheter et vendre. Le marché boursier est risqué, l'investissement doit donc être prudent]
.Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!