Maison  >  Article  >  Périphériques technologiques  >  L'ère des grands modèles est arrivée ! Comment faire face aux risques liés à la sécurité des données ? Conseils d'experts au sommet de l'IA de Xiaomiyao

L'ère des grands modèles est arrivée ! Comment faire face aux risques liés à la sécurité des données ? Conseils d'experts au sommet de l'IA de Xiaomiyao

WBOY
WBOYavant
2023-05-31 15:25:43770parcourir

Quelle est la raison de la popularité des grands modèles linguistiques tels que ChatGPT ? À quelles industries cela apportera-t-il de bonnes nouvelles ? Où sont les risques potentiels de bulle ? Du 25 au 26 mai, plus de 20 chercheurs et praticiens dans le domaine de l'IA ont discuté des applications de l'AIGC lors du sous-forum de la Conférence technologique de Xiaomanyao 2023 – « Vers l'ère intelligente et réaliser le saut de la civilisation », Sommet spécial de l'AIGC et des nouveaux paradigmes commerciaux. de nouvelles voies de développement dans diverses industries et domaines, ainsi que des risques potentiels en matière de sécurité des données et des problèmes éthiques.

Lors de la cérémonie de sortie du nouveau livre lors du sommet du 26, Long Zhiyong, auteur de "The Era of Big Models", ancien expert produit principal et directeur général adjoint de la business unit d'Alibaba, et co-fondateur et directeur opérationnel de la start-up IA de la Silicon Valley Dans une interview avec Nandu, il a déclaré franchement que l'IA générative devrait d'abord suivre le modèle de la normalisation et du développement plus tard. Pour faire face aux risques potentiels de bulle des grands modèles, il existe à la fois des moyens techniques, tels que des moyens techniques. comme l'auto-évaluation de grands modèles, l'examen des algorithmes de conformité, etc., ainsi que les processus manuels. Plus important encore, l'industrie doit avoir des attentes raisonnables quant à la difficulté et au cycle de résolution des problèmes afin d'éviter les risques causés par un excès d'optimisme.

Les grands modèles déclenchent un nouveau cycle de révolution intellectuelle et de restructuration industrielle

ChatGPT Le véritable « cerveau » intelligent derrière l’intelligence artificielle générative est le grand modèle de langage ! Les percées technologiques basées sur de grands modèles génératifs de pré-formation ont apporté de multiples applications aux individus et aux industries, déclenchant un nouveau cycle de révolution intellectuelle et de restructuration industrielle, et construisant une nouvelle relation de collaboration cerveau-ordinateur.

L'ère des grands modèles est arrivée ! Long Zhiyong a révélé que « L'ère des grands modèles » fournit une analyse et une élaboration approfondies de la technologie, des applications et des changements industriels, explique de manière vivante les principes derrière le grand modèle ChatGPT, décrit comment les grands modèles conduiront la société dans l'ère de la révolution intelligente et collaboration cerveau-ordinateur, et résumer les précautions et les méthodologies permettant aux entreprises d'appliquer de grands modèles dans leur propre entreprise, et fournir des suggestions aux individus et aux entreprises pour faire face aux changements. Selon lui, les grands modèles ont été spécifiquement appliqués dans des domaines tels que le travail du savoir, les entreprises commerciales et le divertissement créatif, et génèrent principalement deux types d'innovation : l'innovation incrémentale et l'innovation de rupture.

Dans le discours d'ouverture du sommet, le scientifique en intelligence artificielle Liu Zhiyi a également mentionné que l'intelligence artificielle donne du pouvoir à divers domaines du développement économique et social et que la demande de grands modèles continue d'augmenter pour la modernisation industrielle dans divers domaines en aval. On estime que la taille du marché de l'industrie chinoise de l'intelligence artificielle atteindra 370 millions de yuans en 2022 et devrait atteindre 1,537 milliard de yuans en 2027. Elle devrait continuer à pénétrer dans de nombreux domaines tels que la fabrication en aval, les transports, la finance, et les soins médicaux, et parvenir à une mise en œuvre à grande échelle.

Lère des grands modèles est arrivée ! Comment faire face aux risques liés à la sécurité des données ? Conseils dexperts au sommet de lIA de Xiaomiyao

"L'ère des grands modèles" a été publié le 26 mai lors du sommet spécial de l'AIGC 2023 "Vers l'ère intelligente et réaliser un saut de civilisation".

L'intelligence artificielle générative entraîne des risques tels que l'érosion de la confiance

Cependant, avec la généralisation des grands modèles, des bulles potentielles sont également apparues. Moins de 20 jours après que Samsung a introduit ChatGPT, il a été révélé que des données confidentielles avaient été divulguées. Les gens sont de plus en plus attentifs aux risques juridiques, aux questions éthiques et aux problèmes de sécurité des données provoqués par des technologies telles que le changement de visage de l’IA et la peinture par l’IA.

En parlant de « l'innovation technologique de l'IA et de la gouvernance éthique à l'ère du grand modèle », Liu Zhiyi a déclaré que l'intelligence artificielle générative comporte certains risques si ces risques ne sont pas pris en compte et atténués lors de l'expansion de l'échelle, elle pourrait ralentir. la vitesse de transformation. Les mises à jour continues des modèles entraînés pour améliorer les performances peuvent soulever des inquiétudes concernant les données sensibles, la confidentialité et la sécurité. Toutes les personnes impliquées dans le développement, la consommation, la discussion et la réglementation de l’IA générative devraient s’efforcer de gérer les risques tels que l’érosion de la confiance, le risque à long terme de chômage des employés, les préjugés et la discrimination, la confidentialité des données et la protection de la propriété intellectuelle.

Liu Zhiyi a partagé trois points de vue dans une interview avec Nandu. Il a déclaré que premièrement, la technologie de l'IA entrerait naturellement dans divers domaines de l'économie nationale et des systèmes sociaux, et que les risques augmenteraient car la technologie elle-même est une boîte noire, comme un réseau neuronal profond. Grâce au calcul de la technologie et des algorithmes, non. on en connaît chaque étape. Comment y parvenir est opaque et inexplicable, et il y a des risques. Deuxièmement, la technologie de l’IA est souvent liée à la création du monde numérique. Par exemple, la contrefaçon profonde, qui consiste notamment à forger des sons et des images, consiste à transformer des identités physiques en identités numériques. Plus l’économie numérique est développée, plus ces supports techniques sont nécessaires et plus leur dépendance est forte, mais plus ils comportent de risques. Troisièmement, mon pays attache une grande importance aux scénarios d'application et à l'écologie. La mise en œuvre de ces scénarios d'application doit être innovante et entraînera inévitablement des risques. Ces risques augmenteront avec l'innovation des scénarios, il y aura donc une supervision préventive. l'Administration du cyberespace de Chine a publié « Les « Mesures pour la gestion des services d'intelligence artificielle générative (projet pour commentaires) » et les « Avis sur le renforcement de la gouvernance éthique de la science et de la technologie » publiés par le ministère de la Science et de la Technologie sont tous des considérations préventives de certains risques.

Lère des grands modèles est arrivée ! Comment faire face aux risques liés à la sécurité des données ? Conseils dexperts au sommet de lIA de Xiaomiyao

Long Zhiyong, auteur de "The Era of Big Models", ancien expert produit principal et directeur général adjoint de l'unité commerciale d'Alibaba, et co-fondateur et directeur de l'exploitation de la start-up AI de la Silicon Valley, a pris la parole à la cérémonie de sortie du nouveau livre.

Proposer des exigences de fiabilité et de transparence des algorithmes de grands modèles

"La confidentialité des données est en effet une question importante pour le grand modèle GPT." Long Zhiyong a déclaré dans une interview avec Nandu qu'OpenAI avait récemment fait des préparatifs à l'avance en réponse aux demandes de renseignements aux États-Unis, comme la fourniture d'une option personnelle pour désactiver le chat. Dans ChatGPT, les utilisateurs peuvent refuser que les grands modèles utilisent leurs propres données privées pour la formation ; pour les entreprises clientes, OpenAI fournira des modèles déployés en privé pour éviter que les entreprises ne s'inquiètent du partage de leurs données de formation affinées par les grands modèles avec leurs concurrents. très probablement utilisé par les concurrents Adopté par les grands modèles nationaux.

Concernant la manière de gérer le risque potentiel de bulle des grands modèles et la manière d'équilibrer la relation entre une réglementation forte et le développement de l'intelligence artificielle générative, Long Zhiyong a déclaré franchement que l'IA générative devrait d'abord suivre le modèle de normalisation et de développement plus tard. En tant que principaux porteurs de responsabilités juridiques pour les produits générés par l'IA, les fournisseurs de services de grands modèles sont responsables de l'exactitude et de l'orientation de la valeur du contenu de l'AIGC, et leur pression en matière de conformité est toujours considérable. Il s'agit d'une norme forte », indique le « Pékin ». Promotion Dans le document « Plusieurs mesures pour le développement innovant de l'intelligence artificielle générale », il est mentionné que l'IA générative devrait être encouragée pour obtenir des applications positives dans des domaines non publics tels que la recherche scientifique, et devrait être pilotée dans le domaine central de ​​Zhongguancun mène des projets pilotes de réglementation inclusifs et prudents. Je pense que c'est un signal positif qui établit un équilibre entre les normes et le développement.

Il a mentionné que la réflexion de l’agence de régulation nécessite des algorithmes à grande échelle pour améliorer la fiabilité et la transparence. Dans « L'ère des grands modèles », un avertissement a été émis concernant les risques potentiels de bulle industrielle, et l'un des facteurs clés était la fiabilité et la transparence des grands modèles. Ilya, scientifique en chef d'OpenAI, estime que l'illusion des grands modèles et la falsification de l'information sont les principaux obstacles à l'application du GPT dans diverses industries. La raison pour laquelle le problème des hallucinations est difficile à éradiquer est premièrement due aux objectifs et méthodes de formation des grands modèles. Deuxièmement, l'attribut boîte noire de l'IA depuis l'ère de l'apprentissage profond est opaque et ne peut pas localiser des problèmes spécifiques dans le modèle. Étant donné que le mécanisme d'émergence de nouvelles capacités des grands modèles est également transparent et imprévisible, l'industrie du grand modèle doit rechercher la contrôlabilité malgré la perte de contrôle et rechercher le développement dans le cadre de la réglementation. C'est le plus grand défi.

Produit par : Nandu Big Data Research Institute

Chercheur : Yuan Jiongxian

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer