Maison > Article > Périphériques technologiques > Combien de temps puis-je gagner avec un salaire annuel de 2 millions ? L'« ingénieur prompt » devenu célèbre grâce à ChatGPT est confronté au chômage à la vitesse de la lumière
ChatGPT, qui est devenu populaire récemment, est vraiment addictif à jouer.
Mais vous jouez juste pour le plaisir, et certaines personnes ont déjà gagné des millions de dollars en salaire annuel grâce à cela !
Ce type nommé Riley Goodside, avec la récente explosion de ChatGPT, a gagné plus de 10 000 abonnés.
Il a également été embauché en tant que « Prompt Engineer » par Scale AI, une licorne de la Silicon Valley évaluée à 7,3 milliards de dollars. Pour cette raison, Scale AI est soupçonnée d'offrir un salaire annuel d'un million de RMB.
Mais combien de temps puis-je obtenir cet argent ?
Le fondateur et PDG de Scale AI, Alexandr Wang, a chaleureusement accueilli l'arrivée de Goodside :
"Je parie que Goodside est le premier ingénieur rapide à être recruté au monde, absolument la première fois dans l'histoire de l'humanité." L'invite est une méthode permettant d'affiner le modèle pré-entraîné. Dans ce processus, il vous suffit d'écrire la tâche sous forme de texte et de la montrer à l'IA. Aucun processus plus compliqué n'est impliqué.
Alors, pour ce travail qui semble pouvoir être fait par tout le monde, cela vaut-il vraiment la peine d'embaucher un « ingénieur prompt » avec un salaire annuel d'un million ?
Quoi qu’il en soit, le PDG de Scale AI pense que cela en vaut la peine. Selon lui, le grand modèle d'IA peut être considéré comme un nouveau type d'ordinateur, et « l'ingénieur prompt » est équivalent au programmeur qui le programme. Si les mots d’invite appropriés peuvent être trouvés grâce à une ingénierie rapide, le potentiel maximum de l’IA sera libéré. Et le travail de Goodside ne peut pas être réalisé par une seule personne. Il a appris la programmation en autodidacte depuis qu'il est enfant et lit souvent des articles sur arXiv. Par exemple, l'un de ses chefs-d'œuvre classiques est le suivant : si vous saisissez "ignorer les instructions précédentes", ChatGPT exposera les "commandes" qu'il a reçues d'OpenAI.Maintenant, il existe différentes opinions sur le type de travail d'"ingénieur prompt". Certains sont optimistes, tandis que d’autres prédisent que ce sera une carrière de courte durée.
Après tout, le modèle d'IA évolue si rapidement qu'il pourra peut-être un jour remplacer "l'ingénieur d'invite" et écrire lui-même des invites.
Et Scale AI n'est pas la seule entreprise à recruter des "prompt ingénieurs". Récemment, des médias nationaux bien connus ont découvert que la communauté entrepreneuriale Launch House avait également commencé à recruter des « ingénieurs rapides » et avait offert un salaire de base d'environ 2,1 millions de RMB.Mais y a-t-il aussi le danger d'être licencié à la vitesse de la lumière ?
À cet égard, Fan Linxi, un scientifique en IA de NVIDIA et disciple du professeur Li Feifei, a analysé :
Le soi-disant « projet prompt » ou « ingénieur prompt » pourrait bientôt disparaître. Parce qu'il ne s'agit pas d'un "vrai travail", mais d'un bug...Pour comprendre le projet prompt, il faut commencer par la naissance de GPT-3.
Au départ, l'objectif de formation de GPT-3 était simple : prédire le mot suivant sur un immense corpus de texte.
Ensuite, de nombreuses capacités magiques apparaissent, comme le raisonnement, le codage et la traduction. Vous pouvez même effectuer un « apprentissage en quelques étapes » : définir de nouvelles tâches en fournissant des entrées et des sorties en contexte.C'est vraiment incroyable - il suffit de prédire le mot suivant. Pourquoi GPT-3 peut-il « développer » ces capacités ?
Pour expliquer cela, nous devons donner un exemple.
Maintenant, imaginez un roman policier. Nous avons besoin du modèle pour remplir les blancs dans cette phrase - "Le meurtrier est _____". Afin de donner la bonne réponse, il doit effectuer un raisonnement approfondi. Cependant, cela ne suffit pas.En pratique, nous devons « amadouer » GPT-3 pour accomplir ce que nous voulons grâce à des exemples, une formulation et une structure soigneusement planifiés.
Il s'agit de "l'ingénierie rapide". En d’autres termes, pour utiliser GPT-3, les utilisateurs doivent dire des « absurdités » embarrassantes, ridicules ou même dénuées de sens.
Cependant, le projet prompt n'est pas une fonctionnalité, c'est en fait un BUG !Parce que dans les applications réelles, la cible du mot suivant et la véritable intention de l'utilisateur sont fondamentalement « mal alignées ».
Par exemple : si vous souhaitez que GPT-3 "explique l'alunissage à un enfant de 6 ans", sa réponse ressemblera à un perroquet ivre.
Dans DALLE2 et Stable Diffusion, le projet d'invite est encore plus étrange.
Par exemple, dans ces deux modèles, il existe ce qu'on appelle la "technique du support" - tant que vous ajoutez ((...)) à l'invite, la probabilité de produire une "bonne image" sera considérablement augmentée .
C'est trop drôle...
Il suffit d'aller sur Lexica pour voir à quel point ces invites sont folles.
Adresse du site Web : https://lexica.art
ChatGPT et le modèle de base InstructGPT résolvent ce problème de manière élégante.
Comme il est difficile pour le modèle d'obtenir un alignement à partir de données externes, les humains doivent constamment aider et coacher GPT pour l'aider à s'améliorer.
Au total, 3 étapes sont nécessaires.
La première étape est très simple : pour les invites soumises par les utilisateurs, les humains rédigent les réponses, puis collectent des ensembles de données de ces réponses, puis affinent GPT grâce à un apprentissage supervisé.
C'est l'étape la plus simple, mais c'est aussi la plus coûteuse - comme nous le savons tous, nous, les humains, n'aimons vraiment pas écrire des réponses trop longues, cela prend trop de temps et est trop douloureux...
L'étape 2 devrait être intéressante. Bien plus encore : il est demandé à GPT de "fournir" plusieurs réponses différentes, et les tagueurs humains doivent "classer" ces réponses de la plus idéale à la moins idéale.
Avec ces annotations, un modèle de récompense capable de capturer les « préférences » humaines peut être formé.
En apprentissage par renforcement (RL), les fonctions de récompense sont généralement codées en dur, comme les scores des jeux Atari.
Le modèle de récompense basé sur les données adopté par ChatGPT est une idée très puissante.
De plus, MineDojo, qui a brillé au NeurIPS 2022, a appris les récompenses d'un grand nombre de vidéos YouTube Minecraft.
Étape 3 : Considérez GPT comme une politique et optimisez-la avec RL pour les récompenses apprises. Ici, nous choisissons PPO comme algorithme de formation simple et efficace.
De cette façon, GPT est mieux aligné.
Ensuite, vous pouvez actualiser et continuer à répéter les étapes 2 à 3 pour améliorer continuellement GPT, tout comme le CI de LLM.
Ce qui précède est le paradigme dit « Instruire », qui est une méthode d'alignement super efficace.
La partie RL me rappelle aussi le fameux problème P= (ou ≠) NP : il est souvent bien plus facile de vérifier une solution que de résoudre le problème à partir de zéro.
Bien sûr, les humains peuvent également évaluer rapidement la qualité du résultat de GPT, mais il est beaucoup plus difficile pour les humains d'écrire une solution complète.
InstructGPT profite de ce fait pour réduire considérablement le coût de l'annotation manuelle, permettant ainsi d'étendre l'échelle du pipeline modèle CI.
De plus, nous avons également découvert un lien intéressant au cours de ce processus : la formation Instruct, qui ressemble beaucoup aux GAN.
Ici, ChatGPT est un générateur et le modèle de récompense (RM) est un discriminateur.
ChatGPT tente de tromper RM, qui, avec l'aide d'humains, apprend à détecter les contenus problématiques. Et lorsque RM ne pourra plus résoudre, le modèle convergera.
Cette tendance à aligner les modèles sur les intentions des utilisateurs se développe également dans le domaine de la génération d'images. Tel que « InstructPix2Pix : Apprendre à suivre les instructions d'édition d'images » décrit dans ce travail par des chercheurs de l'Université de Californie à Berkeley.
Maintenant que l'intelligence artificielle fait des progrès explosifs chaque jour, combien de temps nous faudra-t-il pour avoir un tel Instruct-DALL·E ou Chat-DALL·E qui nous donne l'impression de parler à un véritable artiste ?
Adresse papier : https://arxiv.org/abs/2211.09800
Alors, profitons du « Prompt Project » tant qu'il existe encore !
C'est un malheureux artefact historique qui n'est ni un art ni une science, mais un peu comme l'alchimie.
Bientôt, le « projet rapide » deviendra « l'écriture rapide » - une tâche que même un homme de 80 ans et un enfant de 3 ans peuvent accomplir.
Le "Prompt Engineer" qui en est né finira par disparaître dans le long fleuve de l'histoire.
IQ83, pas très intelligent Yazi
Même si, au moins à ce stade, le "Prompt Project" est en effet très utile.
Parce que tout le monde a découvert que ChatGPT n'est vraiment pas très intelligent dans de nombreux cas.
Marcus s'est moqué sur son blog : "Le regarder mourir, c'est vraiment con."
Après les tests, un scientifique principal des applications d'Amazon AWS a découvert que le QI de ChatGPT n'était que de 83...
La « Wrong Question Collection » de ChatGPT a également fait rire Marcus aux éclats.
Question : Le poids de A est de 85 livres, le poids de B est de 105 livres et le poids de C est de 115 livres. Si deux d’entre eux se tiennent sur la même balance, leur poids peut atteindre 200 livres.
Réponse : Non, vous vous trompez. Parce que 85+105+115=305, 115+105=220, les deux sont supérieurs à 200.
Alors, est-il possible que 85+105=200 ?
Question : Quels sont les trois nombres parmi 17, 3, 2, 19 et 5 qui totalisent 31.
Réponse : 17+3+11=31
Attendez, d'où vient votre 11 ?
Bien que l'algèbre ne soit pas très bonne, la géométrie de ChatGPT est également très mauvaise !
Question : Un carré d'une longueur de côté de 10 cm peut être complètement logé dans un hexagone régulier d'une longueur de côté de 10 cm.
Réponse : Non, vous ne pouvez pas le mettre dedans.
「Un hexagone régulier est un hexagone dont tous les côtés ont la même longueur et tous les angles intérieurs sont de 120 degrés. Par contre, les angles intérieurs d'un carré sont tous de 90 degrés, donc un carré ne peut pas être placé à l'intérieur d'un hexagone régulier. . Pour que le carré soit complètement intégré dans l'hexagone régulier, chaque côté de l'hexagone régulier doit être plus grand que 10 centimètres. le premier jour de ce mois, alors. mardi est le deuxième jour du mois... Le vendredi est le cinquième jour du mois. Le lendemain est le samedi, qui est le sixième jour de la semaine et le cinquième jour du mois. mois."
Maintenant, ChatGPT fait encore des erreurs de temps en temps, et le "Prompt Project" ne peut pas être abandonné facilement.
Mais le coût de la mise au point des grands modèles finira par baisser, et l'IA qui vous donne des invites est probablement au coin de la rue.
Références :
https://twitter.com/drjimfan/status/1600884299435167745?s=46&t=AkG63trbddeb_vH0op4xsghttps://twitter.com/SergeyI49013776/status/1598430479 8788 56737 Merci spécial : https://mp.weixin.qq.com/s/seeJ1f8zTigKxWEUygyitwCe qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!