Maison  >  Article  >  Périphériques technologiques  >  Commentaires des médias étrangers sur GPT-4 : un grand pas en avant dans le domaine de l'intelligence artificielle et un autre changement majeur dans l'éthique technique

Commentaires des médias étrangers sur GPT-4 : un grand pas en avant dans le domaine de l'intelligence artificielle et un autre changement majeur dans l'éthique technique

WBOY
WBOYavant
2023-04-18 09:22:021274parcourir


Commentaires des médias étrangers sur GPT-4 : un grand pas en avant dans le domaine de l'intelligence artificielle et un autre changement majeur dans l'éthique technique

Actualités le 15 mars, mardi heure locale, le ​Intelligence Artificielle​​​Laboratoire de Recherche​​OpenAI​​a publié la dernière version du grand modèle de langage GPT-4. Cet outil avancé tant attendu peut non seulement générer automatiquement du texte, mais également décrire et analyser le contenu des images ; il fait non seulement progresser le niveau technique de la vague de l'intelligence artificielle, mais rend également les limites éthiques du développement technologique de plus en plus difficiles à ignorer.

Le premier chat en ligne d'OpenAI​​robot​​ChatGPT a attiré beaucoup d'attention grâce à son texte fluide généré automatiquement, et a également inquiété le public quant à sa capacité à rédiger des articles et des scripts fictifs. Vous savez, ChatGPT utilise toujours GPT-3, une technologie d'ancienne génération qui était obsolète il y a plus d'un an.

En revanche, le modèle GPT-4 de pointe est non seulement capable de générer automatiquement du texte, mais également de décrire des images en fonction des exigences simples de l'utilisateur. Par exemple, lorsque GPT-4 voyait une photo d'un gant de boxe suspendu à une balançoire en bois avec une balle à une extrémité, et que l'utilisateur demandait ce qui se passerait si le gant tombait, GPT-4 répondait qu'il heurterait le bascule, envoyant la balle voler.

Les premiers testeurs ont affirmé que GPT-4 est très avancé dans sa capacité à raisonner et à apprendre de nouvelles choses. ​​Microsoft​​ a également révélé mardi que le chatbot d'intelligence artificielle Bing lancé le mois dernier utilisait GPT-4.

Les développeurs ont déclaré mardi que cette technologie révolutionnerait encore davantage le travail et la vie des gens. Mais cela soulève également des inquiétudes du public quant à la manière dont les humains peuvent rivaliser avec des machines aussi horriblement sophistiquées et comment les gens peuvent faire confiance à ce qu’ils voient en ligne.

Les dirigeants d'OpenAI ont déclaré que la « multimodalité » de GPT-4 à travers le texte et les images le rend de loin supérieur à ChatGPT en termes de « capacités de raisonnement avancées ». La société a retardé la sortie de la fonction de description d'image de GPT-4 en raison de préoccupations concernant une mauvaise utilisation de la fonction, et les abonnés au service ChatGPT Plus pris en charge par GPT-4 ne peuvent utiliser que la fonction de texte.

Sandhini Agarwal, chercheur en politiques chez OpenAI, a déclaré que la raison pour laquelle l'entreprise n'a pas publié cette fonctionnalité est de mieux comprendre les risques potentiels. Le porte-parole d'OpenAI, Niko Felix, a déclaré que la société prévoyait de « mettre en œuvre des mesures de protection pour empêcher l'identification des informations personnelles contenues dans les images ».

OpenAI a également admis que GPT-4 comportera toujours des erreurs courantes telles que « générer des hallucinations », dire des bêtises, perpétuer les préjugés sociaux et fournir de mauvais conseils.

Microsoft a investi des milliards de dollars dans OpenAI, dans l'espoir que la technologie de l'intelligence artificielle puisse devenir la fonctionnalité phare de ses logiciels de bureautique, de ses moteurs de recherche et de ses autres produits en ligne. L'entreprise présente la technologie comme un partenaire extrêmement efficace, capable de gérer des tâches répétitives et de permettre aux utilisateurs de se concentrer sur un travail créatif, par exemple en aidant les développeurs de logiciels à accomplir le travail d'équipes entières.

Cependant, certaines personnes préoccupées par l'intelligence artificielle disent qu'il ne s'agit peut-être que de symptômes et que l'intelligence artificielle peut conduire à des modèles commerciaux et à des risques que personne ne peut prédire.

Le développement rapide de l'intelligence artificielle, associé à la popularité de ChatGPT, a conduit à une concurrence féroce entre les entreprises du secteur pour concourir pour la domination dans le domaine de l'intelligence artificielle et pour lancer de nouveaux logiciels.

Cet engouement a également suscité de nombreuses critiques. Beaucoup pensent que la précipitation de ces entreprises à déployer une technologie non testée, non réglementée et imprévisible pourrait tromper les utilisateurs, nuire au travail des artistes et causer des dommages réels.

Parce qu'ils sont conçus pour générer des formulations convaincantes, les modèles de langage d'IA fournissent souvent de mauvaises réponses. De plus, ces modèles sont formés à l’aide d’informations et d’images provenant d’Internet et apprennent à imiter les préjugés humains.

Les chercheurs d'OpenAI ont écrit dans un rapport technique que "à mesure que GPT-4 et les systèmes d'intelligence artificielle similaires seront largement adoptés", ils "renforceront les connaissances inhérentes".

Irene Solaiman, ancienne chercheuse chez OpenAI et directrice politique de Hugging Face, une société d'intelligence artificielle open source, estime que la rapidité de ce type de progrès technologique exige que l'ensemble de la société réponde en temps opportun aux problèmes potentiels.

Elle a ajouté : "En tant que société, nous pouvons déjà parvenir à un large consensus sur certains préjudices qui ne devraient pas être causés par les modèles", mais "de nombreux préjudices sont subtils et affectent principalement les groupes minoritaires." "ne peut pas être une considération secondaire dans les performances de l'IA."

Le dernier GPT-4 n'est pas non plus complètement stable. Lorsqu'un utilisateur a félicité l'outil d'IA pour sa mise à niveau vers GPT-4, sa réponse a été "Je suis toujours un modèle GPT-3". Puis, après avoir été corrigé, il s'est excusé pour cela et a déclaré : "En tant que GPT-4, je vous remercie pour vos félicitations !" L'utilisateur a ensuite plaisanté en disant qu'il s'agissait en fait toujours d'un modèle GPT-3, et l'IA s'est à nouveau excusée en disant cela. il " Il s'agit bien d'un modèle GPT-3, pas GPT-4".

Le porte-parole d’OpenAI, Felix, a déclaré que l’équipe de recherche de l’entreprise étudiait où se situe le problème.

Mardi, des chercheurs en intelligence artificielle ont critiqué OpenAI pour ne pas avoir divulgué suffisamment d'informations. La société n'a pas publié de données sur son évaluation des biais dans GPT-4. Les ingénieurs impatients ont également été déçus de trouver peu de détails sur le modèle GPT-4, l'ensemble de données ou les méthodes de formation. OpenAI a déclaré dans le rapport technique qu'il ne divulguerait pas ces détails en raison du « paysage concurrentiel et des implications en matière de sécurité » auquel il est confronté.

Le domaine de l'intelligence artificielle multisensorielle dans lequel GPT-4 opère est très compétitif. DeepMind, la société d'intelligence artificielle appartenant à la société mère de Google, Alphabet, a publié l'année dernière un modèle à tout faire appelé Gato, capable de décrire des images et de jouer à des jeux vidéo. Google a publié ce mois-ci PaLM-E, un système multimodal qui intègre la vision de l'intelligence artificielle et l'analyse du langage dans des robots à un seul bras. Par exemple, si quelqu’un lui demande de ramasser des jetons, il peut comprendre la demande, se tourner vers le tiroir et sélectionner l’objet approprié.

Des systèmes similaires ont inspiré un optimisme sans limite quant au potentiel de la technologie, certains constatant même des niveaux d’intelligence presque comparables à ceux des humains. Cependant, comme le soutiennent les critiques et les chercheurs en IA, ces systèmes trouvent simplement des modèles établis et des corrélations inhérentes dans les données d’entraînement répétées sans une compréhension claire de leur signification.

GPT-4 est le quatrième « transformateur pré-entraîné génératif » depuis la version initiale d'OpenAI en 2018, basé sur le « transformateur » technologique révolutionnaire de ​réseau neuronal​​ développé en 2017. De tels systèmes, « pré-entraînés » par l’analyse de textes et d’images en ligne, ont permis des progrès rapides dans la manière dont les systèmes d’intelligence artificielle analysent la parole et les images humaines.

Au fil des années, OpenAI a également fondamentalement modifié les risques sociaux potentiels liés à la diffusion au grand public d’outils d’intelligence artificielle. En 2019, la société a refusé de publier GPT-2, affirmant que même si l'IA fonctionnait très bien, elle s'inquiétait des « applications malveillantes » qui l'utiliseraient.

Mais en novembre de l'année dernière, OpenAI a lancé publiquement ChatGPT basé sur une version affinée de GPT-3. Quelques jours seulement après son lancement, il a dépassé le million d'utilisateurs.

Des expériences publiques avec les chatbots ChatGPT et Bing montrent que la technologie est loin d'être parfaite sans intervention humaine. Après une série de conversations étranges et de réponses incorrectes, les dirigeants de Microsoft ont admis que les chatbots IA ne sont toujours pas dignes de confiance lorsqu'il s'agit de fournir des réponses correctes, mais ont déclaré qu'ils développaient des « mesures de confiance » pour résoudre le problème.

GPT-4 promet d'améliorer certaines lacunes, avec des défenseurs de l'IA tels que le blogueur technologique Robert Scoble affirmant que "GPT-4 est meilleur que ce à quoi on s'attendait."

Le PDG d'OpenAI, Sam Sam Altman, a tenté de tempérer les attentes concernant GPT-4. . Il a déclaré en janvier que les spéculations sur les capacités de GPT-4 avaient atteint des sommets impossibles, que "les rumeurs sur GPT-4 sont ridicules" et "ils seront déçus

Mais Altman fait également la promotion de la vision d'OpenAI". Dans un article de blog le mois dernier, il a déclaré que l'entreprise prévoyait comment garantir que « toute l'humanité » bénéficie de « l'énergie universelle artificielle » (AGI). Ce terme industriel fait référence à l’idée encore irréaliste de disposer d’une super intelligence artificielle aussi intelligente, voire plus intelligente, que les humains.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer