Maison >Périphériques technologiques >IA >De retour en ligne en Italie, mais les problèmes réglementaires d'OpenAI ne font que commencer
Nouvelles du 7 mai, la semaine dernière, OpenAI a réussi à apaiser les régulateurs italiens, les incitant à lever l'interdiction temporaire du chatbot ChatGPT, mais la bataille de la société de recherche en intelligence artificielle avec les régulateurs européens n'est pas encore terminée, d'autres défis ont été relevés. vient de commencer.
Le chatbot populaire mais controversé d'OpenAI, ChatGPT, a franchi un obstacle juridique majeur en Italie plus tôt cette année, l'autorité italienne de protection des données (GPDP) accusant OpenAI de violer les règles de l'UE en matière de protection des données. Pour tenter de résoudre le problème, la société a accepté de restreindre l'utilisation du service en Italie.
Le 28 avril, ChatGPT a été relancé en Italie et OpenAI a facilement répondu aux préoccupations de l'autorité italienne de protection des données sans apporter de modifications majeures à son service. Il s’agit d’une nette victoire pour OpenAI.
Alors que l'autorité italienne de protection des données « salue » les modifications apportées à ChatGPT, les défis juridiques auxquels sont confrontés OpenAI et d'autres sociétés développant des chatbots ne font peut-être que commencer. Les régulateurs de plusieurs pays étudient la manière dont ces outils d’intelligence artificielle collectent des données et génèrent des informations, citant des raisons allant de la collecte de données de formation non autorisées à la tendance des chatbots à émettre des messages incorrects.
L’Union européenne a commencé à appliquer le Règlement général sur la protection des données (RGPD), l’un des cadres juridiques de protection de la vie privée les plus puissants au monde, dont les impacts pourraient s’étendre bien au-delà de l’Europe. Dans le même temps, les législateurs européens travaillent sur une loi ciblant spécifiquement l’intelligence artificielle, qui pourrait également ouvrir la voie à une nouvelle ère de réglementation de systèmes tels que ChatGPT.
ChatGPT est devenu la cible de l'attention de nombreuses parties
ChatGPT est l'une des applications les plus regardées en matière d'intelligence artificielle générative (AIGC), couvrant une variété d'outils pour générer du texte, des images, des vidéos et des audios en fonction des invites des utilisateurs. . Selon les rapports, deux mois seulement après son lancement en novembre 2022, ChatGPT a atteint 100 millions d'utilisateurs actifs mensuels, ce qui en fait l'une des applications grand public à la croissance la plus rapide de l'histoire.
Avec ChatGPT, les gens peuvent traduire du texte dans différentes langues, rédiger des articles universitaires et même générer du code. Mais certains critiques, y compris les régulateurs, soulignent le manque de fiabilité des informations fournies par ChatGPT, les problèmes de droits d'auteur et les lacunes dans la protection des données.
L'Italie est le premier pays à prendre des mesures contre ChatGPT. Le 31 mars, l'autorité italienne de protection des données a accusé OpenAI d'avoir violé le règlement général sur la protection des données en autorisant ChatGPT à fournir des informations inexactes ou trompeuses, en omettant d'informer les utilisateurs des pratiques de collecte de données, en ne se conformant pas à la réglementation sur le traitement des données personnelles et en omettant de le faire. Empêcher de manière adéquate les enfants de moins de 13 ans d’utiliser le Service. L’autorité italienne de protection des données a ordonné à OpenAI de cesser immédiatement d’utiliser les informations personnelles collectées auprès des citoyens italiens dans les données de formation de ChatGPT.
À l’heure actuelle, d’autres pays n’ont pas pris de mesures d’envergure similaires. Mais depuis mars, au moins trois pays de l'UE – l'Allemagne, la France et l'Espagne – ont lancé leurs propres enquêtes sur ChatGPT. Pendant ce temps, de l'autre côté de l'Atlantique, le Canada évalue les préoccupations de ChatGPT en matière de confidentialité en vertu de sa Loi sur la protection des renseignements personnels et les documents électroniques (LPRPDE). Le Comité européen de la protection des données (EDPB) a même mis en place un groupe de travail dédié pour coordonner les enquêtes. Si ces agences exigent qu'OpenAI apporte des modifications, cela pourrait affecter la façon dont l'entreprise sert les utilisateurs du monde entier.
Les régulateurs ont deux préoccupations majeures
Les plus grandes préoccupations des régulateurs concernant ChatGPT sont principalement divisées en deux catégories : D'où proviennent les données de formation ? Comment OpenAI fournit-il des informations aux utilisateurs ?
Pour prendre en charge ChatGPT, OpenAI nécessite l'utilisation des grands modèles de langage (LLM) GPT-3.5 et GPT-4, qui sont formés sur de grandes quantités de texte généré par l'homme. OpenAI reste prudent quant au type de texte de formation qu'il utilise, mais affirme qu'il s'appuie sur "une variété de sources de données autorisées et accessibles au public, qui peuvent inclure des informations personnelles accessibles au public".
Cela peut causer d'énormes problèmes au titre du règlement général sur la protection des données. Adoptée en 2018, la loi couvre tous les services qui collectent ou traitent des données sur les citoyens de l'UE, quel que soit le lieu où est basée l'organisation fournissant le service. Le règlement général sur la protection des données exige que les entreprises obtiennent le consentement explicite des utilisateurs avant de collecter des données personnelles, qu'elles aient une raison légalement valable de collecter les données et qu'elles soient transparentes sur la manière dont les données sont utilisées et stockées.
Les régulateurs européens affirment que la confidentialité des données de formation d’OpenAI signifie qu’ils ne peuvent pas confirmer si les informations personnelles utilisées à l’origine avaient le consentement des utilisateurs. L'autorité italienne de protection des données a fait valoir qu'OpenAI n'avait aucune « base juridique » pour collecter les informations en premier lieu. Jusqu’à présent, OpenAI et d’autres sociétés ont fait l’objet de peu d’examens.
Un autre problème est le « droit à l’oubli » du Règlement général sur la protection des données, qui permet aux utilisateurs de demander aux entreprises de corriger leurs informations personnelles ou de les supprimer entièrement. OpenAI a mis à jour sa politique de confidentialité à l'avance pour faciliter la réponse à ces demandes. Mais étant donné la complexité de la séparation une fois que des données spécifiques sont introduites dans ces grands modèles de langage, la question de savoir si elle est techniquement réalisable est toujours discutable.
OpenAI collecte également des informations directement auprès des utilisateurs. Tout comme les autres plateformes Internet, elle collecte une gamme standard de données utilisateur telles que le nom, les contacts et les détails de la carte de crédit. Mais plus important encore, OpenAI enregistre les interactions des utilisateurs avec ChatGPT. Comme indiqué sur le site officiel, les employés d'OpenAI peuvent consulter ces données et les utiliser pour entraîner leurs modèles. Compte tenu des questions personnelles que les gens ont posées à ChatGPT, comme considérer le robot comme un thérapeute ou un médecin, cela signifie que l'entreprise collecte toutes sortes de données sensibles.
Ces données peuvent inclure des informations sur des mineurs. Bien que la politique d'OpenAI stipule qu'elle « ne collecte pas sciemment d'informations personnelles sur des enfants de moins de 13 ans », il n'y a pas de seuil strict de vérification de l'âge. Ceci est incompatible avec la réglementation de l'UE, qui interdit la collecte de données auprès de mineurs de moins de 13 ans et, dans certains pays, exige le consentement des parents pour collecter des informations auprès de mineurs de moins de 16 ans. Du côté des résultats, l'autorité italienne de protection des données a affirmé que l'absence de filtre d'âge dans ChatGPT permettait aux mineurs "de recevoir des réponses absolument inappropriées en termes de niveau de développement et de conscience de soi".
OpenAI dispose d'une grande liberté dans l'utilisation de ces données, ce qui inquiète de nombreux régulateurs, et il existe des risques de sécurité liés au stockage de ces données. Des entreprises comme Samsung et JPMorgan Chase ont interdit à leurs employés d'utiliser les outils AIGC, craignant qu'ils téléchargent des données sensibles. En fait, avant que l'Italie n'édicte l'interdiction, ChatGPT a subi une grave fuite de données, qui a entraîné la divulgation de l'historique de discussion et des adresses e-mail d'un grand nombre d'utilisateurs.
De plus, la tendance de ChatGPT à fournir de fausses informations peut également causer des problèmes. Le règlement général sur la protection des données stipule que toutes les données personnelles doivent être exactes, un point souligné par l'autorité italienne de protection des données dans son communiqué. Cela peut poser des problèmes pour la plupart des générateurs de texte d'IA, car ces outils sont sujets aux « hallucinations », c'est-à-dire à donner des réponses factuellement incorrectes ou non pertinentes aux requêtes. Cela a causé des problèmes réels ailleurs, par exemple lorsqu'un maire australien a menacé de poursuivre OpenAI pour diffamation après que ChatGPT ait faussement affirmé qu'il avait été emprisonné pour corruption.
Des règles réglementaires spécialisées sont sur le point d'être introduites
ChatGPT est particulièrement vulnérable aux cibles réglementaires en raison de sa popularité et de sa domination sur le marché de l'intelligence artificielle. Mais comme des concurrents et des partenaires comme Bard de Google et Azure AI alimenté par OpenAI de Microsoft, il n'y a aucune raison pour que cela ne soit pas examiné de près. Avant ChatGPT, l’Italie avait interdit à la plateforme de chatbot Replika de collecter des informations sur les mineurs. Pour l’instant, la plateforme reste interdite.
Bien que le règlement général sur la protection des données soit un ensemble de lois puissant, il n'a pas été créé pour résoudre les problèmes propres à l'IA. Toutefois, des règles réglementaires dédiées pourraient voir le jour. En 2021, l'Union européenne a soumis un projet de la première version de sa loi sur l'intelligence artificielle (AIA), qui sera mise en œuvre conjointement avec le règlement général sur la protection des données. La loi sur l'IA réglementerait les outils d'IA en fonction de leur niveau de risque, de « risque minimal » (comme les filtres anti-spam) à « risque élevé » (outils d'IA utilisés pour l'application de la loi ou l'éducation) à « inutilisable ». (par exemple système de crédit social).
Après l'explosion de grands modèles de langage comme ChatGPT, les législateurs se démènent désormais pour ajouter des règles pour les « modèles de base » et les « systèmes généraux d'intelligence artificielle (GPAI) ». Les deux termes font référence aux systèmes d’IA à grande échelle, y compris les LLM, et peuvent les classer comme services « à haut risque ».
Les dispositions de la loi sur l'intelligence artificielle vont au-delà de la protection des données. Un amendement récemment proposé obligerait les entreprises à divulguer tout matériel protégé par le droit d'auteur utilisé pour développer les outils AIGC. Cela pourrait exposer des ensembles de données autrefois secrets et rendre davantage d’entreprises vulnérables aux poursuites pour contrefaçon, qui ont déjà eu un impact sur certains services.
Des lois spécialisées sur l'IA pourraient être adoptées d'ici fin 2024
À l'heure actuelle, la mise en œuvre de ce projet de loi pourrait prendre un certain temps. Les législateurs européens sont parvenus à un accord sur un projet de loi intérimaire sur l'intelligence artificielle le 27 avril, mais une commission devra encore voter sur le projet le 11 mai, la proposition finale devant être publiée à la mi-juin. Le Conseil européen, le Parlement européen et la Commission européenne devront alors résoudre tous les différends restants avant de mettre en œuvre la loi. Si tout se passe bien, il pourrait être adopté au second semestre 2024.
Pour l'instant, la dispute entre l'Italie et OpenAI nous donne un premier aperçu de la manière dont les régulateurs et les entreprises d'IA pourraient négocier. L'autorité italienne de protection des données a déclaré qu'elle lèverait l'interdiction si OpenAI respectait plusieurs résolutions proposées d'ici le 30 avril.
Ces résolutions incluent l'information des utilisateurs sur la manière dont ChatGPT stocke et utilise leurs données, l'exigence du consentement explicite des utilisateurs pour utiliser ces données, la facilitation de la correction ou la suppression des fausses informations personnelles générées par ChatGPT et l'obligation pour les utilisateurs italiens de s'identifier lors de leur inscription à un compte. compte Avez-vous plus de 18 ans. Même si OpenAI n’a pas respecté ces réglementations, il a satisfait les régulateurs italiens et a rétabli l’accès en Italie.
OpenAI doit encore remplir d'autres conditions, notamment l'établissement d'un seuil d'âge plus strict d'ici le 30 septembre, le filtrage des mineurs de moins de 13 ans et l'obligation pour les mineurs plus âgés d'obtenir le consentement parental. En cas d'échec, OpenAI pourrait être à nouveau banni. Cependant, OpenAI semble avoir donné l’exemple selon lequel l’Europe considère le comportement des entreprises d’IA comme acceptable, au moins jusqu’à l’introduction de nouvelles lois. (Xiao Xiao)
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!