Maison >Périphériques technologiques >IA >L'engouement pour ChatGPT s'étend à tout le pays. La supervision de l'IA peut-elle augmenter en même temps ?
Récemment, le nouveau robot de chat ChatGPT lancé par la société américaine d'intelligence artificielle OpenAI est devenu populaire sur Internet. Ses fonctions puissantes ont attiré l'attention de la société et sont appelées applications « clés » de l'IA. De grandes entreprises ont investi dans la vague de développement d'applications de type ChatGPT, mais la « popularité » de ChatGPT a également déclenché des discussions sur les questions de supervision de l'intelligence artificielle.
ChatGPT n'est sorti que depuis deux mois et ses utilisateurs actifs mensuels ont atteint 100 millions, ce qui en fait l'application grand public à la croissance la plus rapide de l'histoire. Pendant un certain temps, de nombreuses sociétés de technologie Internet telles que Microsoft, Tencent, Baidu et Alibaba ont successivement publié leurs réalisations et leur configuration technique dans le domaine de ChatGPT, dont on peut dire qu'elles « se rassemblent ». Les réponses rapides et les opérations simples de ChatGPT ont conduit un grand nombre d'utilisateurs à l'utiliser pour vérifier des informations et rédiger des documents, pas seulement comme outil de chat.
Cependant, à mesure que le champ d'application de ChatGPT devient de plus en plus large, ses risques cachés ont commencé à apparaître aux yeux du public. Bien que ChatGPT ne soit pas parfait aujourd’hui, il rafraîchit encore notre compréhension du développement de l’intelligence artificielle qui nécessite une supervision législative. ChatGPT a démontré des progrès incroyables en matière d’intelligence artificielle, mais il a également posé des problèmes juridiques et éthiques.
En termes de droits de propriété intellectuelle, ChatGPT peut être utilisé pour générer des documents et des codes, provoquant des violations de propriété intellectuelle et des litiges de propriété. En termes de protection des informations personnelles, ChatGPT ne peut pas vérifier la source des informations et des données, et il peut exister des dangers cachés tels que la fuite de données personnelles et la propagation de fausses informations. En termes de sécurité des données, étant donné que ChatGPT peut apprendre le langage humain, il peut être plus déroutant en termes de grammaire et d'habitudes d'expression lors de la rédaction d'« e-mails de phishing ». S'il est utilisé de manière inappropriée, les conséquences néfastes sont incalculables.
D'un point de vue mondial, les gouvernements du monde entier ont commencé à prêter attention à diverses questions liées au développement de l'intelligence artificielle, et la formulation et la mise en œuvre de lois et de réglementations dans le domaine de l'intelligence artificielle ont également été mises à l'ordre du jour. Les systèmes d’IA générative créent des opportunités, mais nous amènent également à un « carrefour » historique : celui de savoir si l’IA contrôle les humains, ou si les humains contrôlent l’IA.
En décembre 2022, l'Administration chinoise du cyberespace, le ministère de l'Industrie et des Technologies de l'information et le ministère de la Sécurité publique ont publié conjointement le « Règlement sur la gestion de synthèse approfondie des services d'information Internet » et entrera en vigueur en janvier. 10, 2023. Le « Règlement » propose une série d'exigences pour les fournisseurs de services d'application et les supports techniques qui utilisent la technologie de l'intelligence artificielle pour générer du contenu, comme ChatGPT.
L'UE prévoit également récemment de mettre à jour sa réglementation sur l'intelligence artificielle, qui n'a pas encore été publiée, la « Loi sur l'intelligence artificielle », qui devrait entrer en vigueur en 2025. La stratégie nationale d'intelligence artificielle publiée par le gouvernement britannique souligne que les systèmes de gouvernance et de réglementation formulés par le gouvernement doivent suivre l'évolution rapide de la situation de l'intelligence artificielle.
En raison de la dualité de cette technologie d’intelligence artificielle, nous devons non seulement réguler l’algorithme, mais aussi le combiner avec la régulation des données. Comment garantir l'exactitude et la confidentialité des sources de données génératives de l'IA, comment protéger les droits de propriété intellectuelle et comment corriger rapidement l'orientation contraire à l'éthique du discours de l'IA sont autant de questions qui doivent être résolues de toute urgence dans le domaine de l'intelligence artificielle.
À l'heure actuelle, la fonction d'assistance à la sécurité de l'intelligence artificielle doit encore être examinée et approuvée par les services concernés, et le champ d'application de ChatGPT devrait également être limité. L'État doit renforcer la réglementation éthique de l'intelligence artificielle, améliorer la conscience éthique et comportementale de l'intelligence artificielle dans l'ensemble de la société et faire en sorte que l'intelligence artificielle soit conforme aux lois morales, à l'ordre public et aux bonnes coutumes. Sur cette base, nous libéraliserons progressivement les domaines d'utilisation et la profondeur des applications pour explorer le développement sain de l'intelligence artificielle.
Comme l'a dit Pat Gelsinger, PDG d'Intel, l'intelligence artificielle a donné lieu à des changements mondiaux et nous a fourni des outils puissants. La technologie elle-même est neutre et nous devons continuer à la transformer en une force bénéfique.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!