Maison  >  Article  >  Périphériques technologiques  >  Comment réguler les robots d’IA générative comme ChatGPT et Bard ?

Comment réguler les robots d’IA générative comme ChatGPT et Bard ?

WBOY
WBOYavant
2023-04-08 12:31:031025parcourir

Comment réguler les robots d’IA générative comme ChatGPT et Bard ?

La recherche montre que l'utilisation généralisée d'outils généraux d'intelligence artificielle crée de nouveaux défis pour les régulateurs qu'ils pourraient avoir du mal à relever. En fait, la manière de réglementer les outils d’IA générative tels que le chatbot ChatGPT d’OpenAI est devenue un problème qui préoccupe les décideurs politiques du monde entier.

ChatGPT peut générer tout type de contenu via des mots-clés et est formé pour saisir une grande quantité de connaissances. La solution passera par l’évaluation des risques, dont certains devront notamment être étroitement surveillés.

Deux mois après le lancement de ChatGPT, ce chatbot IA est devenu le produit de consommation à la croissance la plus rapide de l'histoire, avec plus de 100 millions d'utilisateurs actifs rien qu'en janvier de cette année. Cela a incité les grandes entreprises technologiques du monde entier à prêter attention ou à accélérer le lancement de systèmes d’IA, et a apporté une nouvelle vitalité au domaine de l’IA conversationnelle.

Microsoft intègre l'IA conversationnelle dans son navigateur, son moteur de recherche et sa gamme de produits plus large ; Google prévoit de faire de même avec son chatbot Bard et d'autres intégrations dans Gmail et Google Cloud suivent également le lancement de leurs propres chatbots ; Des startups comme Jasper et Quora apportent également l'IA générative et conversationnelle aux marchés grand public et des entreprises...

L'IA générative accélère les besoins réglementaires

Large gamme de désinformation et de difficultés Les e-mails de phishing découverts présentent un risque réel pour l'application de l’IA, qui peut conduire à des erreurs de diagnostic et à des erreurs médicales si elle est utilisée à des fins d’information médicale. Il existe également un risque élevé de biais si les données utilisées pour alimenter le modèle ne sont pas diverses.

Bien que Microsoft dispose déjà d'un modèle recyclé plus précis et que des fournisseurs comme AI21 Inc. s'efforcent de valider le contenu généré par rapport aux données en direct, il existe un risque de générer des réponses d'IA qui « semblent réelles mais sont complètement inexactes ».

Le commissaire au marché intérieur de l'Union européenne, Thierry Breton, a récemment déclaré que le prochain projet de loi européen sur l'IA comprendra des dispositions pour les systèmes d'IA générative tels que ChatGPT et Bard.

« Comme le démontre ChatGPT, les solutions d'IA peuvent offrir d'énormes opportunités aux entreprises et aux citoyens, mais elles peuvent également comporter des risques. C'est pourquoi nous avons besoin d'un cadre réglementaire solide pour garantir des solutions fiables basées sur des données d'IA de haute qualité. » a-t-il déclaré.

Le développement de l'IA doit être éthique

Le fournisseur de logiciels analytiques SAS a décrit certains des risques posés par l'IA dans un rapport intitulé "IA et innovation responsable". Le Dr Kirk Borne, auteur du rapport, a déclaré : « L'IA est devenue si puissante et si omniprésente qu'il est de plus en plus difficile de dire si le contenu qu'elle génère est vrai ou faux, bon ou mauvais. nettement plus rapide que le rythme de la réglementation. Cela implique l’utilisation d’un cadre éthique pour guider le développement de modèles d’IA et d’une gouvernance stricte pour garantir que ces modèles prennent des décisions justes, transparentes et équitables. Nous pouvons comparer le modèle d'IA au modèle challenger et l'optimiser à mesure que de nouvelles données deviennent disponibles. "

D'autres experts estiment que les développeurs de logiciels seront tenus de réduire le risque représenté par le logiciel, et seules les activités les plus risquées seront confrontées à des mesures réglementaires plus strictes.

L'assistant de Ropes & Gray Data, Privacy and Network Security, Edward Machin, a déclaré que c'était le cas. Il est inévitable que des technologies telles que ChatGPT, qui apparaissent apparemment du jour au lendemain, soient appliquées plus rapidement que les réglementations, en particulier dans des domaines tels que l'IA, qui sont déjà difficiles à réglementer. le timing reste à voir. Les fournisseurs de systèmes d’IA en subiront les conséquences, mais les importateurs et les distributeurs (au moins dans l’UE) assumeront également des obligations potentielles. Cela pourrait poser des problèmes à certains développeurs de logiciels open source. La manière dont les responsabilités des développeurs open source et des autres parties en aval sont gérées pourrait avoir un effet dissuasif sur la volonté de ces personnes d’innover et de mener des recherches. "

Réglementations sur les droits d'auteur, la confidentialité et le RGPD

De plus, Machin estime qu'en plus de la réglementation globale de l'IA, il existe également des problèmes concernant le droit d'auteur et la confidentialité du contenu qu'elle génère. Par exemple, il n'est pas clair si les développeurs. peut facilement (le cas échéant) traiter les demandes de suppression ou de correction des individus, et on ne sait pas comment ils pourraient récupérer de grandes quantités de données de sites tiers d'une manière qui pourrait violer leurs conditions d'utilisation Dans Alan Turing Research. , professeur de droit, d'innovation et de société à l'Université de Newcastle qui travaille sur la réglementation de l'IA, a déclaré que certains de ces modèles seraient soumis à la réglementation GDPR, ce qui pourrait conduire à des ordonnances de suppression des données d'entraînement ou même des algorithmes eux-mêmes si le propriétaire du site Web les perdait. Le trafic de recherches IA pourrait également signifier la fin du grattage à grande échelle de données sur Internet, qui stimule actuellement le développement des moteurs de recherche tels que Google.

Il a souligné que le plus gros problème est la nature générale de ces modèles d’IA. Cela les rend difficiles à réglementer dans le cadre de la loi européenne sur l’IA, qui est rédigée en fonction des risques encourus, car il est difficile de dire ce que les utilisateurs finaux feront de la technologie. La Commission européenne tente d'ajouter des règles pour régir ce type de technologie.

Améliorer la transparence des algorithmes peut être une solution. "Les géants de la technologie vont commencer à faire pression sur les régulateurs en leur disant : 'Vous ne pouvez pas nous imposer ces obligations parce que nous ne pouvons pas imaginer tous les risques ou utilisations à l'avenir'", a déclaré Edwards. "Il existe des moyens de résoudre ce problème. car les grandes entreprises technologiques aident plus ou moins, notamment en rendant les algorithmes sous-jacents plus transparents. Nous traversons une période difficile et avons besoin d’incitations pour évoluer vers l’ouverture et la transparence afin de mieux comprendre comment l’IA prend des décisions et génère du contenu »

. Elle a également déclaré : « C’est le même problème que les gens ont avec des technologies plus ennuyeuses, parce que la technologie est mondiale et que les gens avec de mauvaises intentions sont partout, il est donc très difficile de réglementer l’IA en général. Il est difficile de respecter les réglementations en matière d’IA »

.

Adam Leon Smith, directeur de la technologie chez DragonFly, un fournisseur de services de conseil en IA, a déclaré : « Les régulateurs mondiaux sont de plus en plus conscients qu'il est difficile de réglementer avec précision la technologie de l'IA sans tenir compte de son utilisation réelle. Les exigences en matière de degré et de biais ne peuvent être prises en compte. dans le contexte de l'utilisation, et il est difficile de prendre en compte les exigences en matière de risque, de droits et de liberté avant une adoption massive. « Les régulateurs peuvent imposer la transparence et la journalisation aux fournisseurs de technologie d'IA. Cependant, seuls les utilisateurs qui exploitent et déploient des systèmes LLM (Large Language Model). à des fins spécifiques peuvent comprendre les risques et mettre en œuvre des mesures d'atténuation grâce à une supervision manuelle ou une surveillance continue", a-t-il ajouté.

La réglementation de l'IA est imminente

Il y a eu un débat à grande échelle sur la réglementation de l'IA au sein de la Commission européenne, et les régulateurs des données doivent s'y attaquer sérieusement. À terme, Smith estime qu'à mesure que les régulateurs accorderont plus d'attention à la question, les fournisseurs d'IA commenceront à énumérer les objectifs pour lesquels la technologie « ne peut pas être utilisée », notamment en émettant des clauses de non-responsabilité avant que les utilisateurs ne se connectent, les plaçant ainsi dans une position basée sur le risque. . en dehors du champ d’application de l’action réglementaire.

Leon Smith a déclaré que les meilleures pratiques actuelles en matière de gestion des systèmes d'IA n'impliquent presque pas de modèles linguistiques à grande échelle, qui constituent un domaine émergent qui se développe extrêmement rapidement. Même s’il y a beaucoup de travail à faire dans ce domaine, de nombreuses entreprises proposent ces technologies et n’aident pas à les définir.

Mira Muratti, directrice de la technologie d'OpenAI, a également déclaré que les outils d'IA générative doivent être réglementés. "Il est important que les entreprises comme nous en informent le public de manière contrôlée et responsable." Outre la supervision des fournisseurs d’IA, davantage d’investissements dans les systèmes d’IA sont également nécessaires, y compris des investissements de la part des agences de réglementation et des gouvernements. »

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer