Maison >Périphériques technologiques >IA >Projet de loi européen sur l'IA : la réglementation entravera-t-elle l'innovation ?

Projet de loi européen sur l'IA : la réglementation entravera-t-elle l'innovation ?

王林
王林avant
2023-04-12 10:22:031364parcourir

Projet de loi européen sur l'IA : la réglementation entravera-t-elle l'innovation ?

  • Les réglementations sur l'IA open source sont mentionnées dans la loi sur l'intelligence artificielle (AIA), qui est actuellement en discussion au sein de l'UE.
  • Cependant, restreindre sévèrement l’utilisation, le partage et la distribution de l’IA General Open Source (GPAI) pourrait être considéré comme un pas en arrière.
  • Les licences d'échange libre d'informations open source, telles que la licence MIT, sont destinées à partager des connaissances et des concepts, et non à vendre au détail des marchandises finies et éprouvées.
  • L'élargissement des obligations juridiques des chercheurs et développeurs open source GPAI ne fera qu'entraver l'innovation et le développement technologiques.

La loi européenne sur l'intelligence artificielle (AIA) actuellement en discussion mentionne la réglementation de l'intelligence artificielle open source. Cependant, imposer des restrictions strictes sur l’utilisation, le partage et la distribution de l’intelligence artificielle générale (GPAI) open source peut être considéré comme un pas en arrière.

Objectifs de la loi européenne sur l'intelligence artificielle

La seule façon pour les humains de faire progresser la technologie à un rythme aussi rapide est grâce à la culture open source. Jusqu'à récemment, il était acceptable que les chercheurs en IA publient leur code source pour accroître l'ouverture et la vérifiabilité. Cependant, limiter cette tendance pourrait inverser les progrès culturels réalisés par la communauté scientifique.

Deux objectifs du projet de loi sur l'intelligence artificielle sont particulièrement mis en avant par la structure réglementaire proposée :

  • "Assurer la sécurité juridique pour promouvoir l'investissement et l'innovation dans l'IA"
  • "Promouvoir un marché unique légal, sûr et fiable pour le développement des applications d'IA" , empêchant la fragmentation du marché »

Les réglementations GPAI du projet de loi sur l'intelligence artificielle semblent contredire ces affirmations. GPAI encourage l’innovation et l’échange d’informations sans crainte de conséquences juridiques coûteuses et négatives. Ainsi, au lieu de construire un marché de la sécurité qui résiste à la fragmentation, de sérieuses restrictions réglementaires qui en même temps entravent le développement de l’open source et monopolisent davantage le développement de l’IA par les grands géants de la technologie pourraient en fait survenir.

Le développement open source de l’IA devrait-il être plus strictement réglementé ?

Cela est plus susceptible de conduire à moins de transparence sur le marché, ce qui rend plus difficile la détermination si une application d’IA est « légale, sûre et digne de confiance ». Bien sûr, rien de tout cela n’est bon pour le GPAI. Au lieu de cela, il existe une crainte croissante et inquiétante que la disparité que cette imposition pourrait créer ne donne plus de pouvoir aux grandes entreprises.

Il est également important de reconnaître que certains peuvent interpréter cette opposition aux changements comme une tentative des entreprises de contourner les règles. Il ne fait aucun doute que des réglementations telles que la loi sur l’intelligence artificielle sont nécessaires pour lutter contre les comportements à risque. Sans réglementation, l'IA tombera-t-elle entre de mauvaises mains ? nécessaire. Cependant, plutôt que d’appliquer cette loi à tous les modèles simultanément, il vaut mieux l’appliquer un par un. Plutôt que de réglementer l’open source à la source et de limiter l’innovation, chaque modèle devrait être évalué pour détecter les dommages potentiels et géré en conséquence.

La mise en œuvre de la Loi est nuancée, complexe et multidimensionnelle. Même ceux qui étaient généralement d’accord différaient sur d’autres points. Cependant, le fait que le GPAI soit ouvert au public constitue un point de friction majeur. Cette approche ouverte et collaborative est le principal moteur du progrès, de la transparence et du développement technologique, pour un bénéfice social collectif et individuel plutôt que commercial.

Partagez des informations librement

Les licences open source comme la licence MIT sont destinées au partage d'informations et d'idées, et non à la vente d'un produit raffiné et éprouvé. Il ne faut donc pas les traiter de la même manière. Il existe un réel besoin d’un mix réglementaire idéal. Il s’agit d’accroître la fiabilité et l’ouverture sur la manière dont ces modèles d’IA sont développés, les types de données utilisés pour les former et s’il existe des limitations connues. Toutefois, cela ne doit pas se faire au détriment de la liberté d’échange d’informations.

La forme du projet de loi sur l'intelligence artificielle doit être adaptée pour attirer des utilisateurs plus prudents de logiciels open source.

La loi sur l'intelligence artificielle devrait être structurée de manière à encourager les utilisateurs de logiciels open source à être plus prudents et à mener leurs propres recherches et tests avant de les mettre à la disposition d'un large public. Cela peut permettre d'attraper de mauvais acteurs qui tentent d'exploiter commercialement l'œuvre d'un créateur sans mener d'enquête plus approfondie ni appliquer de normes de qualité.

En fait, il devrait être de la responsabilité et de l'obligation du développeur final de tout vérifier minutieusement avant de l'expédier aux consommateurs. Ces personnes bénéficieront en fin de compte financièrement des initiatives open source. Cependant, le cadre ne cherche pas explicitement à atteindre cet objectif dans son état actuel. Un principe fondamental de l’open source est le libre échange d’informations et d’expertise à des fins personnelles et non commerciales.

Élargir la responsabilité juridique des développeurs et des chercheurs open source GPAI ne fera qu'étouffer le progrès technologique et l'innovation. Cela empêchera les développeurs d’échanger des connaissances et des idées, ce qui rendra plus difficile l’accès des nouvelles entreprises ou des individus en herbe à la technologie de pointe. Ils ne pourront pas s’appuyer sur leurs propres connaissances ni être motivés par ce que les autres ont acquis.

De nos jours, l’intelligence artificielle est largement utilisée dans les bâtiments intelligents, ce qui implique également des enjeux de sécurité. Récemment, le 23e Sommet international chinois sur l'intelligence du bâtiment en 2022, organisé par Qianjia.com, débutera officiellement. Le thème de ce sommet est « L'autonomisation de l'intelligence numérique, la résolution du carbone pour un nouvel avenir », au cours duquel la création de bâtiments intelligents plus sûrs sera abordée. C’est devenu l’un des principaux sujets abordés lors de ce sommet.

Le sommet se tiendra en grande pompe dans les cinq grandes villes de Xi'an, Chengdu, Pékin, Shanghai et Guangzhou du 8 novembre au 8 décembre 2022. À ce moment-là, nous nous joindrons à des marques et des experts de renommée mondiale en matière d'intelligence du bâtiment pour partager des sujets d'actualité et les dernières applications technologiques telles que l'IA, le cloud computing, le big data, l'IoT, les villes intelligentes, les maisons intelligentes et la sécurité intelligente, et discuter comment créer un écosystème industriel « à faible émission de carbone », Un écosystème industriel plus sûr, plus stable et plus ouvert contribuera à atteindre l'objectif du « double carbone ».

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer