Maison  >  Article  >  Périphériques technologiques  >  Entretien avec Sam Altman : GPT-4 ne m'a pas beaucoup surpris, mais ChatGPT m'a surpris

Entretien avec Sam Altman : GPT-4 ne m'a pas beaucoup surpris, mais ChatGPT m'a surpris

WBOY
WBOYavant
2023-04-04 13:05:071572parcourir

ChatGPT et GPT-4 sont sans aucun doute les plus gros « hot hits » de l’industrie de l’intelligence artificielle en ce début d’année 2023.

· Je n'ai aucune idée de ce que diront les livres d'histoire sur les différentes versions de GPT. Mais si je dois choisir un nœud clé que j’ai vu jusqu’à présent, je pense qu’il s’agit toujours de ChatGPT. GPT-4 ne m'a pas trop surpris, mais ChatGPT m'a rendu un peu ravi.

· Dans une certaine mesure, le système GPT-4 améliore l'intelligence humaine et peut être appliqué à une variété de scénarios.

· La facilité d'utilisation d'un système lui-même est parfois plus importante que les capacités du modèle sous-jacent.

· GPT-4 n'est pas encore conscient et ne peut pas remplacer les bons programmeurs. Une intelligence artificielle véritablement consciente devrait être capable de dire aux autres qu’elle est consciente, d’exprimer sa propre douleur et ses autres émotions, de comprendre sa propre situation, d’avoir sa propre mémoire et d’interagir avec les autres.

· L'intelligence artificielle apportera d'énormes améliorations à la qualité de la vie humaine. Nous pouvons guérir des maladies, créer de la richesse, augmenter les ressources et rendre les humains heureux... Il semble que les humains n'aient plus besoin de travailler, mais les humains en ont toujours besoin. la société. Le statut, le besoin de passion, le besoin de créer, le besoin de se sentir valorisé. Par conséquent, après l’avènement de l’ère de l’intelligence artificielle, nous devons trouver de nouveaux emplois et de nouveaux modes de vie, et profiter des énormes améliorations apportées par les nouvelles technologies.

Entretien avec Sam Altman : GPT-4 ne ma pas beaucoup surpris, mais ChatGPT ma surpris

Sam Altman, l'un des fondateurs d'OpenAI, est actuellement président de Y Combinator et PDG d'OpenAI, un laboratoire américain d'intelligence artificielle. A dirigé le laboratoire d'intelligence artificielle OpenAI pour développer le programme de chatbot ChatGPT, et a été surnommé le « Père de ChatGPT » par les médias.

(L fait référence à Lex Fridman, S fait référence à Sam Altman)

Si l'histoire de l'IA est écrite sur Wikipédia, ChatGPT est toujours le nœud le plus critique

Q1

L : Qu'est-ce que GPT-4 ? Comment ça marche ? Quelle est la chose la plus étonnante à ce sujet ?

S : Avec le recul, il s'agit encore d'un système d'intelligence artificielle très rudimentaire. Son efficacité de travail est faible, il y a quelques problèmes mineurs et beaucoup de choses ne sont pas terminées de manière satisfaisante. Néanmoins, cela ouvre la voie à des technologies véritablement importantes à l’avenir (même si le processus prend des décennies).

Q2

L : Dans 50 ans, lorsque les gens reviendront sur les premiers systèmes intelligents, GPT-4 constituera-t-il un véritable grand pas en avant ? Lorsque les gens écriront l’histoire de l’intelligence artificielle sur Wikipédia, sur quelle version de GPT écriront-ils ?

S : Ce processus de progrès est en cours et il est difficile de cerner un moment historique. Je n'ai aucune idée de ce que diront les livres d'histoire sur les différentes versions de GPT. Mais si je devais choisir un nœud clé que j’ai vu jusqu’à présent, je pense que c’est ChatGPT. Ce qui est vraiment important dans ChatGPT n'est pas son modèle sous-jacent lui-même, mais la manière d'utiliser le modèle sous-jacent, qui implique un apprentissage par renforcement basé sur la rétroaction humaine (RLHF) et son interface.

Q3

L : Comment RLHF permet-il à ChatGPT d'avoir des performances aussi étonnantes ?

S : Nous avons entraîné ces modèles sur de grandes quantités de données textuelles. Ce faisant, ils ont acquis quelques connaissances sur les représentations de bas niveau et ont pu réaliser des choses étonnantes. Mais lorsque nous venons de terminer la formation, si nous utilisons immédiatement ce modèle de base, même s'il peut avoir de bonnes performances sur l'ensemble de test, il n'est pas très simple à utiliser. À cette fin, nous avons implémenté le RLHF en introduisant des retours humains. Le RLHF le plus simple est le suivant : donner au modèle deux versions du résultat, le laisser juger laquelle des évaluateurs humains préférera, puis renvoyer ces informations au modèle via un apprentissage par renforcement. Le RLHF est étonnamment efficace. Nous pouvons rendre le modèle plus pratique avec très peu de données. Nous utilisons cette technologie pour aligner le modèle sur les besoins humains, ce qui permet de donner plus facilement des réponses correctes et utiles aux gens. Quelles que soient les capacités du modèle sous-jacent, la facilité d’utilisation du système est essentielle.

Q4

L : Comment comprenez-vous qu'en utilisant la technologie RLHF, nous n'avons plus besoin d'autant de supervision humaine ?

S : Pour être honnête, nos recherches sur cette partie en sont encore à leurs débuts par rapport à la recherche scientifique originale sur la création de grands modèles pré-entraînés, mais elles nécessitent moins de données.

L : La recherche sur le guidage humain est très intéressante et importante. Nous utilisons ce type de recherche pour comprendre comment rendre les systèmes plus utiles, plus intelligents, éthiques et cohérents avec l’intention humaine. Le processus d’introduction du feedback humain est également important.

Q5

L : Quelle est la taille de l'ensemble de données de pré-entraînement ?

S : Nous avons travaillé dur avec nos partenaires pour récupérer ces données de pré-formation à partir de diverses bases de données open source sur Internet et construire un énorme ensemble de données. En fait, outre Reddit, les journaux et autres médias, il existe dans le monde de nombreux contenus auxquels la plupart des gens ne s’attendent pas. Nettoyer et filtrer les données est plus difficile que de les collecter.

Q6

L : Construire ChatGPT nécessite de résoudre de nombreux problèmes, tels que : conception de l'architecture du modèle à l'échelle, sélection des données, RLHF. Qu’y a-t-il de si magique dans l’assemblage de ces pièces ?

S : GPT-4 est la version que nous avons réellement déployée dans le produit final de ChatGPT, et le nombre de pièces nécessaires pour le créer est difficile à connaître et cela demande beaucoup de travail. À chaque étape, nous devons proposer de nouvelles idées ou bien exécuter celles qui existent déjà.

L : Certaines étapes techniques de GPT-4 sont relativement matures, comme la prédiction des performances que le modèle atteindra avant de terminer le modèle d'entraînement complet. Comment pouvons-nous connaître les caractéristiques particulières d’un système entièrement formé, basé sur une petite quantité de formation ? C'est comme regarder un bébé d'un an et savoir combien de points il a obtenu à l'examen d'entrée à l'université.

S : Cette réalisation est surprenante. Elle fait intervenir de nombreux facteurs scientifiques et atteint enfin le niveau d'intelligence attendu par les humains. Ce processus de mise en œuvre est beaucoup plus scientifique que je ne pourrais l’imaginer. Comme pour toutes les nouvelles branches de la science, nous découvrirons de nouvelles choses qui ne correspondent pas aux données et trouverons de meilleures explications. C'est ainsi que la science se développe. Bien que nous ayons publié des informations sur GPT-4 sur les réseaux sociaux, nous devrions toujours être impressionnés par sa magie.

GPT-4 améliore systématiquement l'intelligence humaine

Q7

L : Ce type de modèle de langage peut apprendre ou référencer des documents provenant de divers domaines. Les chercheurs et ingénieurs d’OpenAI parviennent-ils à mieux comprendre les merveilles des modèles de langage ?

S : Nous pouvons évaluer le modèle de différentes manières et tester le modèle sur diverses tâches après l'avoir entraîné. Nous avons également ouvert le processus de test du modèle sur Github, ce qui est très utile. L'important est que nous consacrons beaucoup de main-d'œuvre, de ressources financières et de temps à analyser le caractère pratique du modèle, comment le modèle peut apporter bonheur et aide aux gens, comment créer un monde meilleur et générer de nouveaux produits et services. Bien entendu, nous ne comprenons pas encore pleinement tous les processus internes par lesquels le modèle accomplit ses tâches, mais nous continuerons à y travailler.

Q8

L : GPT-4 compresse la grande quantité d'informations sur Internet en « relativement peu » de paramètres dans le modèle de la boîte noire, formant ainsi la sagesse humaine. Quel genre de saut faut-il faire entre les faits et la sagesse ?

S : Nous utilisons le modèle comme base de données pour absorber les connaissances humaines, plutôt que de l'utiliser comme moteur d'inférence, et la puissance de traitement du système est améliorée comme par magie. De cette façon, le système peut effectivement atteindre un certain degré de raisonnement, même si certains chercheurs peuvent penser que cette affirmation n'est pas rigoureuse. Dans une certaine mesure, le système GPT-4 améliore l’intelligence humaine et peut être appliqué à divers scénarios.

L : ChatGPT semble « posséder » de l'intelligence dans son interaction continue avec les humains. Il admet ses fausses hypothèses et nie les demandes inappropriées de cette manière conversationnelle.

GPT-4 n'est pas conscient et ne remplacera pas les bons programmeurs

Q9

L : Certaines personnes aiment programmer avec GPT, et certaines personnes ont peur que leur travail soit remplacé par GPT. Que pensez-vous de ce phénomène ?

S : Certains travaux de programmation critiques nécessitent encore un élément créatif humain. Les modèles de type GPT automatisent certaines tâches de programmation, mais ils ne peuvent toujours pas remplacer un bon programmeur. Certains programmeurs se sentiront anxieux face à l’incertitude de l’avenir, mais davantage de personnes auront le sentiment que cela améliore leur efficacité au travail.

Il y a vingt ou trente ans, lorsque "Deep Blue" a vaincu le maître d'échecs Kasparov, certains pensaient qu'il n'était pas nécessaire de continuer à jouer aux échecs. Mais les échecs sont toujours populaires dans le monde entier.

L'intelligence artificielle apportera d'énormes améliorations à la qualité de la vie humaine. Nous pouvons guérir les maladies, créer de la richesse, augmenter les ressources et rendre les humains heureux... Il semble que les humains n'aient pas besoin de travailler, mais les humains ont toujours besoin d'un statut social, besoin de passion, besoin de créer, besoin de ressentir sa propre valeur. Par conséquent, après l’avènement de l’ère de l’intelligence artificielle, nous devons trouver de nouveaux emplois et de nouveaux modes de vie, et profiter des énormes améliorations apportées par les nouvelles technologies.

Q10

L : Eliezer Yudkowsky prévient que l'intelligence artificielle peut nuire aux humains et donne des exemples de la façon dont il sera presque impossible de maintenir une super intelligence artificielle « alignée » sur les intentions humaines. Êtes-vous d'accord avec lui ?

S : C’est possible. Si nous ne parlons pas de cette possibilité potentielle, nous ne consacrerons pas suffisamment d’efforts au développement de nouvelles technologies pour résoudre ces problèmes. De tels problèmes existent dans de nombreux domaines émergents et les gens s’inquiètent désormais des capacités et de la sécurité de l’intelligence artificielle. L'article d'Elizer est bien écrit, mais il est difficile de suivre certains de ses travaux, il y a des problèmes de logique et je ne partage pas entièrement son point de vue.

Il y a eu beaucoup de travail sur la sécurité de l'IA bien avant que les gens ne croient au pouvoir de l'apprentissage profond et des grands modèles de langage, et je ne pense pas qu'il y ait eu suffisamment de mises à jour dans ce domaine. La théorie est certes importante, mais nous devons constamment apprendre des changements dans les trajectoires technologiques, et ce cycle doit être plus compact. Je pense que le moment est venu d’examiner la sécurité de l’IA et d’explorer « l’alignement » de ces nouveaux outils et technologies avec l’intention humaine.

Q11

L : La technologie de l'intelligence artificielle se développe à un rythme rapide. Certains disent que nous sommes désormais entrés dans la phase de « décollage » de l'intelligence artificielle. Lorsque quelqu’un développera réellement une intelligence artificielle générale, comment saurons-nous ce changement ?

S : GPT-4 ne m'a pas trop surpris, mais ChatGPT m'a légèrement surpris. Aussi impressionnant que soit GPT-4, il n’est pas encore AGI. La véritable définition de l’AGI est de plus en plus importante, mais je pense qu’elle est encore très loin.

Q12

L : Pensez-vous que GPT-4 est conscient ?

S : Non, je ne pense pas que ce soit encore conscient.

L : Je pense qu'une intelligence artificielle vraiment consciente devrait être capable de dire aux autres qu'elle est consciente, d'exprimer sa propre douleur et d'autres émotions, de comprendre sa propre situation, d'avoir sa propre mémoire et d'interagir avec les gens. Et je pense que ces capacités sont des capacités d’interface et non des connaissances sous-jacentes.

S : Notre scientifique en chef chez OpenAI, Ilya Sutskever, a un jour discuté avec moi de "Comment savoir si un modèle est conscient". Il pense que si nous formons soigneusement un modèle sur un ensemble de données sans mentionner l'expérience subjective de la conscience ou tout concept associé, alors nous décrivons cette expérience subjective de la conscience au modèle et voyons si le modèle peut comprendre les informations que nous transmettons.

Intelligence artificielle générale, où en sommes-nous ?

Q13

L : Chomsky et d'autres critiquent la capacité des « grands modèles de langage » à atteindre une intelligence artificielle générale. Qu'en pensez-vous ? Les grands modèles de langage sont-ils la bonne voie vers l’intelligence artificielle générale ?

S : Je pense que les grands modèles de langage sont une partie du chemin vers l'AGI, et nous avons également besoin d'autres éléments très importants.

L : Pensez-vous qu'un agent intelligent a besoin d'un « corps » pour découvrir le monde ?

S : Je suis prudent à ce sujet. Mais à mon avis, un système qui ne peut pas être bien intégré aux connaissances scientifiques connues ne peut pas être appelé « superintelligence ». C'est comme inventer une nouvelle science fondamentale. Afin d'atteindre la « super intelligence », nous devons continuer à élargir le paradigme de la classe GPT, qui a encore un long chemin à parcourir.

L : Je pense qu'en modifiant les données utilisées pour entraîner le GPT, diverses avancées scientifiques énormes peuvent déjà être réalisées.

Q14

L : À mesure que la chaîne d'invites s'allonge de plus en plus, ces interactions elles-mêmes feront partie de la société humaine et s'appuieront les unes sur les autres. Comment voyez-vous ce phénomène ?

S : Par rapport au fait que le système GPT peut effectuer certaines tâches, ce qui m'excite le plus, c'est que les humains participent à la boucle de rétroaction de cet outil, et nous pouvons en apprendre davantage à partir des trajectoires de plusieurs cycles d'interactions. L’IA élargira et amplifiera les intentions et les capacités humaines, ce qui façonnera également la manière dont les gens l’utilisent. Nous ne construirons peut-être jamais d’AGI, mais rendre les humains meilleurs est une immense victoire en soi.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer