Maison  >  Article  >  Périphériques technologiques  >  ChatGPT va-t-il vraiment conquérir le monde ?

ChatGPT va-t-il vraiment conquérir le monde ?

WBOY
WBOYavant
2023-04-12 19:28:011561parcourir

ChatGPT va-t-il vraiment conquérir le monde ?

ChatGPT est une nouvelle technologie développée par OpenAI qui est si efficace pour imiter la communication humaine que beaucoup pensent qu'elle va bientôt conquérir le monde – et tous les emplois qui y sont créés.

Lors d'un échange organisé le 8 février par le Carney Institute for Brain Science de l'Université Brown, deux chercheurs de différents domaines de recherche ont discuté des similitudes entre l'intelligence artificielle et l'intelligence humaine.

La discussion sur les neurosciences de ChatGPT a donné aux participants un aperçu des modèles d'apprentissage automatique actuels.

Ellie Pavlick, professeur adjoint d'informatique et chercheuse scientifique chez Google AI, a déclaré que malgré tout le buzz autour de la nouvelle technologie, le modèle n'est pas si complexe ni même nouveau.

Elle a expliqué qu'à son niveau le plus élémentaire, ChatGPT est un modèle d'apprentissage automatique conçu pour prédire le mot suivant, l'expression suivante, etc. dans une phrase.

Pavlick a déclaré que ce type de modèle d'apprentissage prédictif existe depuis des décennies. Les informaticiens tentent depuis longtemps de créer des modèles présentant ce comportement et capables de converser avec les humains en langage naturel. Pour ce faire, le modèle doit accéder à une base de données de composants informatiques traditionnels, lui permettant de « raisonner » sur des idées trop complexes.

Ce qui est nouveau, c'est la façon dont ChatGPT est formé ou développé. Il a accès à des quantités insondables de données – « toutes les phrases sur Internet », comme le dit Pavlick.

« ChatGPT en lui-même n'est pas un point d'inflexion », a déclaré Pavlick. "Le point d'inflexion s'est produit au cours des cinq dernières années, lorsqu'il y a eu une augmentation essentiellement des mêmes modèles structurels, mais ils sont devenus de plus en plus grands. Ce qui se passe, c'est qu'à mesure qu'ils grandissent, leurs performances s'améliorent également."

La façon dont ChatGPT et ses concurrents sont accessibles gratuitement au public, c'est également une nouveauté. Il y a encore un an, a déclaré Pavlick, pour interagir avec un système comme ChatGPT, une personne aurait besoin d'accéder à un système comme Brown's Compute Grid, un système dédié que seuls les étudiants, les professeurs et le personnel pouvaient utiliser avec des outils d'autorisations spécifiques, et qui nécessite également. une bonne quantité de compétences techniques.

Mais désormais, n'importe qui, quelles que soient ses capacités techniques, peut utiliser l'interface élégante et rationalisée de ChatGPT.

CHATGPT pense-t-il vraiment comme un humain ?

Le résultat de la formation d'un système informatique avec un ensemble de données aussi énorme est qu'il semble reconnaître des modèles généraux et semble être capable de générer des articles, des histoires, des poèmes et des dialogues très réalistes. , drame, etc.

Il peut générer de faux reportages et de fausses découvertes scientifiques, et produire toutes sortes de résultats – ou « produits » étonnamment valables.

La validité de leurs résultats a amené beaucoup de gens à croire que les modèles d'apprentissage automatique peuvent penser comme les humains. Mais qu'en est-il d'eux ?

ChatGPT est un réseau de neurones artificiels, explique Thomas Serre, professeur de sciences cognitives, linguistiques, psychologiques et d'informatique. Cela signifie que le matériel et la programmation sont basés sur un ensemble de nœuds interconnectés, inspirés de la simplification des neurones du cerveau.

Serre dit qu'il existe en effet de nombreuses similitudes fascinantes dans la façon dont les cerveaux informatiques et les cerveaux humains apprennent de nouvelles informations et les utilisent pour effectuer des tâches.

« Certaines études commencent à suggérer, au moins superficiellement, qu'il pourrait y avoir un lien entre les types de représentations de mots et de phrases que des algorithmes comme ChatGPT utilisent et exploitent pour traiter les informations linguistiques et ce que le cerveau semble faire », a-t-il déclaré. dit.

Par exemple, l'épine dorsale de ChatGPT est un réseau neuronal artificiel de pointe appelé réseau Transformer. Ces réseaux, issus de la recherche sur le traitement du langage naturel, dominent depuis peu tout le domaine de l’intelligence artificielle.

Les réseaux de transformateurs disposent d'un mécanisme spécial que les informaticiens appellent « auto-attention », qui est lié au mécanisme d'attention connu pour se produire dans le cerveau humain.

Une autre similitude avec le cerveau humain est un aspect clé qui rend la technologie si avancée, a déclaré Serre.

Dans le passé, former des réseaux neuronaux artificiels d'ordinateurs pour apprendre et utiliser un langage ou effectuer une reconnaissance d'images obligeait les scientifiques à effectuer des tâches manuelles fastidieuses et chronophages, telles que la création de bases de données et l'étiquetage des catégories d'objets, a-t-il expliqué.

Les grands modèles de langage modernes, tels que celui utilisé dans ChatGPT, peuvent être formés sans cette supervision humaine explicite. Et cela semble être lié à ce que Serre appelle une théorie influente du cerveau appelée théorie du codage prédictif. Cela suppose que lorsqu’une personne entend quelqu’un parler, son cerveau fait constamment des prédictions et anticipe ce qui sera dit ensuite.

Bien que cette théorie ait été proposée il y a des décennies, Searle a déclaré qu'elle n'avait pas encore été entièrement testée en neurosciences. Cependant, elle fait actuellement l’objet d’un grand nombre de travaux expérimentaux.

« Je dirais qu'au moins à ces deux niveaux, le mécanisme d'attention au cœur du moteur de ce réseau prédit constamment ce qui va être dit, ce qui semble être lié à des idées liées aux neurosciences à un niveau très grossier, » a commenté Serre.

Une étude récente a lié les stratégies utilisées par les grands modèles de langage aux processus cérébraux réels, déclarant : « Nous avons encore beaucoup à apprendre, mais un nombre croissant de recherches en neurosciences suggèrent le rôle de ces grands modèles de langage et de ce que font les modèles visuels. dans les ordinateurs] n’est pas totalement étranger à ce que fait notre cerveau lorsque nous traitons le langage naturel.

D’un point de vue plus sombre, tout comme le processus d’apprentissage humain est susceptible d’être biaisé ou corrompu, il en va de même pour les modèles d’intelligence artificielle. Ces systèmes apprennent grâce à des corrélations statistiques, a déclaré Serre. Quelle que soit l'information qui domine, l'ensemble de données prendra le relais et éliminera les autres informations.

«Il s'agit d'un domaine d'intérêt majeur en intelligence artificielle qui n'est pas spécifique au langage», a déclaré Serre. Il a cité comment la surreprésentation des hommes blancs sur Internet a biaisé certains systèmes de reconnaissance faciale au point qu'ils ne parviennent pas à reconnaître les visages qui ne semblent ni blancs ni masculins.

« La qualité des systèmes dépend de la qualité des données d'entraînement que nous leur fournissons, et nous savons que les données d'entraînement ne sont pas si bonnes au départ », a déclaré Serre.

Les données ne sont pas non plus infinies, a-t-il ajouté, surtout compte tenu de l'ampleur de ces systèmes et de leurs appétits voraces.

Pavlick a déclaré que la dernière version de ChatCPT comprend des couches d'apprentissage par renforcement qui agissent comme des garde-fous pour aider à prévenir les contenus nuisibles ou haineux. Mais ce sont encore des travaux en cours.

"Une partie du défi réside dans le fait que... vous ne pouvez pas donner de règle à un modèle - vous ne pouvez pas simplement dire : 'Ne générez jamais telle ou telle chose'", a déclaré Pavlick.

"Il apprend par l'exemple, donc vous lui donnez beaucoup d'exemples de choses à faire et ensuite vous lui dites : 'Ne fais pas ça. Fais ceci. Il est donc toujours possible de trouver une petite astuce pour lui faire faire de mauvaises choses.' '"

CHATGPT ne rêve pas

Une zone différente du cerveau humain et des réseaux neuronaux se trouve pendant le sommeil – plus précisément pendant le rêve. Bien que les textes ou les images générés par l'IA puissent sembler surréalistes, abstraits ou absurdes, Pavlick a déclaré qu'il n'existe aucune preuve pour étayer l'idée selon laquelle il existe des similitudes fonctionnelles entre les processus de rêve biologique et les processus informatiques qui génèrent l'IA.

Elle a dit qu'il est important de comprendre que des applications comme ChatGPT sont des systèmes homéostatiques - en d'autres termes, elles n'évoluent pas et ne changent pas en temps réel en ligne, même si elles peuvent continuer à s'améliorer hors ligne.

"Ce n'est pas comme si [ChatGPT] rejouait, réfléchissait et essayait de combiner les choses de nouvelles manières pour solidifier ce qu'il sait ou tout ce qui se passe dans le cerveau", a déclaré Pavlik.

"C'est plutôt : Terminé. C'est le système. Nous appelons cela un passage en avant à travers le réseau - il n'y a aucun retour de celui-ci. Il n'y a aucune réflexion sur ce qu'il vient de faire et aucun moyen de le mettre à jour

Pavlick dit cela." lorsqu'on demande à une IA de créer, par exemple, une chanson de rap sur le cycle de Krebs ou une image psychédélique du chien de quelqu'un, le résultat peut paraître créatif, mais en réalité, c'est exactement ce que le système a fait. Un mélange de tâches est formé pour le faire. .

Contrairement aux utilisateurs du langage humain, chaque sortie ne modifie pas automatiquement chaque sortie suivante, n'améliore pas les fonctionnalités, ni ne fonctionne de la même manière que les gens pensent que les rêves fonctionnent.

Serre et Pavlick soulignent qu'une mise en garde dans toute discussion sur l'intelligence humaine ou l'intelligence artificielle est que les scientifiques ont encore beaucoup à apprendre sur les deux systèmes.

Quant au battage médiatique autour de ChatGPT, en particulier le succès des réseaux de neurones dans la création de chatbots presque plus humains que les humains, Pavlick dit qu'il est bien mérité, notamment du point de vue de la technologie et de l'ingénierie.

« C'est très excitant ! » "Nous souhaitions un système comme celui-ci depuis longtemps."

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer