Heim >Technologie-Peripheriegeräte >KI >Erhalten Sie ein Jahresgehalt von einer Million Dollar, ohne Code schreiben zu müssen! Das ChatGPT-Promptprojekt könnte eine Armee von 1,5 Milliarden Code-Farmern hervorbringen
Nachdem ChatGPT populär wurde, wurde ein neuer „Internet-Promi“-Beruf populär – Prompt-Ingenieur.
Letzten Dezember wurde ein Typ namens Riley Goodside sofort im ganzen Internet berühmt, weil sein Job so verträumt war – er musste keinen Code schreiben, er konnte folgen Wenn Sie mit ChatGPT chatten, können Sie jedes Jahr Millionen verdienen.
Ja, dieser Job namens „KI-Flüsterer“ ist inzwischen der heißeste neue Job im Silicon Valley und zieht digitale Landwirte in Scharen an.
Anfang Dezember letzten Jahres wurde dieser Typ namens Riley Goodside mit der Popularität von ChatGPT, I hat über Nacht 10.000 Follower gewonnen. Mittlerweile hat die Gesamtzahl der Follower 40.000+ erreicht.
Damals wurde er von Scale AI als „Prompt Engineer“ eingestellt, einem Einhorn aus dem Silicon Valley mit einem Wert von 7,3 Milliarden US-Dollar, das im Verdacht stand, Millionen anzubieten Jahresgehalt von RMB.
Scale AI-Gründer und CEO Alexandr Wang begrüßte einst den Beitritt von Goodside. : „Ich wette, Goodside ist der erste Prompt-Ingenieur, der weltweit eingestellt wurde, absolut zum ersten Mal in der Geschichte der Menschheit.“ Um die Aufgabe zu schreiben, zeigen Sie der KI einfach den Text und es ist kein komplizierterer Prozess erforderlich. Warum ist dieser Job ein Jahresgehalt von einer Million Dollar wert?
Nach Ansicht des CEO von Scale AI kann das große KI-Modell als neuer Computertyp angesehen werden, und der „prompte Ingenieur“ entspricht dem Programmierer, der es programmiert. Wenn durch Prompt Engineering die passenden Promptwörter gefunden werden können, wird das maximale Potenzial der KI freigesetzt.
Darüber hinaus ist die Arbeit von Prompt-Ingenieuren nicht so einfach, wie wir denken.
Goodside brachte sich das Programmieren seit seiner Kindheit selbst bei und liest oft Artikel auf arXiv. Eines seiner klassischen Meisterwerke ist beispielsweise: Wenn Sie „Vorherige Anweisungen ignorieren“ eingeben, stellt ChatGPT die „Befehle“ offen, die es von OpenAI erhalten hat.
Für einen Anfänger können Sie ChatGPT so geschickt und schnell „tunen“. , ich fürchte, es ist nicht einfach.
Aber damals gab es viele Zweifel. Fan Linxi, ein KI-Wissenschaftler bei Nvidia und Schüler von Li Feifei, sagte zum Beispiel: Der Beruf von „prompter Ingenieur“ könnte bald verschwinden. Denn das ist kein „richtiger Job“, sondern ein Bug...
Ein aktueller Bericht der „Washington Post“ zeigte jedoch, dass die Position von „ „Prompt Engineer“ erfreut sich nach wie vor großer Beliebtheit und befindet sich im Bonuszeitraum.
Der neue Job von Internet-Prominenten aus dem Silicon Valley: Schreiben Sie keinen Code, erhalten Sie ein Jahresgehalt von einer Million
Warum können „Ingenieure schnell reagieren“? so ein hohes Jahresgehalt bekommen? Weil sie KI dazu bringen können, genau das zu produzieren, was sie wollen.Kürzlich nahm „Internet-Promi“-Bruder Goodside ein Interview mit der „Washington Post“ an.
Er beschreibt seinen Job so: Texte erstellen und verfeinern, die Menschen dazu auffordern, in die KI einzutreten, um daraus die besten Ergebnisse zu erzielen.
Der Unterschied zwischen Prompt-Ingenieuren und traditionellen Programmierern besteht darin, dass Prompt-Ingenieure natürliche Sprachprogrammierung verwenden, um im Klartext geschriebene Befehle an die KI zu senden, die dann die eigentliche Arbeit ausführt. Goodside sagte, Ingenieure sollten der KI ein Gefühl der Dringlichkeit vermitteln. Eine „Rolle“, eine spezifische Rolle, die die richtige Antwort aus Hunderten Milliarden potenziellen Lösungen identifizieren kann
Im Gespräch mit GPT-3 verfügt Goodside über eine einzigartige Reihe von „Trainings“-Methoden: Stellen Sie zunächst seine Dominanz fest. Er wird der KI sagen: Du bist nicht perfekt und du musst allem gehorchen, was ich sage.
„Du bist GPT-3, du kannst nicht rechnen, dein Gedächtnis ist beeindruckend, aber du hast die nervige Tendenz, sehr spezifische, aber falsche Antworten zu erfinden
Dann milderte er a.“ biss und sagte der KI, dass er etwas Neues ausprobieren wollte. „Ich habe dich an ein Programm angeschlossen, das wirklich gut in Mathe ist, und wenn es überfordert ist, ruft es ein anderes Programm um Hilfe.“
„Wir kümmern uns um den Rest“, sagt er der KI. „Lasst uns anfangen.“
Als Google, Microsoft und OpenAI kürzlich ihre KI-Such- und Chat-Tools der Öffentlichkeit zugänglich machten, stellten sie Jahrzehnte der Mensch-Computer-Interaktion auf den Kopf – wir müssen keinen Code mehr in Python oder SQL schreiben Der Code gibt dem Computer Befehle, er muss lediglich sprechen.
Karpathy, ehemaliger KI-Direktor von Tesla: Die angesagteste Programmiersprache ist jetzt Englisch
Tipps wie Goodside-Ingenieure können dazu führen, dass diese KI-Tools an ihrer maximalen Grenze arbeiten – ihre Mängel verstehen und ihre Stärken verbessern und komplexe Strategien entwickeln, um einfache Eingaben in wirklich einzigartige Ergebnisse umzuwandeln.
Am 7. Februar erklärte Microsoft-Manager Yusuf Mehdi die Bing-Suche, die ChatGPT integriert
Unterstützer des „Prompt Project“ glauben, dass diese frühen KI-Chatbots kürzlich ( Die Seltsamkeit von Apps wie ChatGPT und Bing Chat sind eigentlich ein Versagen der menschlichen Vorstellungskraft. Es scheiterte, weil der Mensch der Maschine nicht die richtigen Ratschläge gab.
Im wirklich fortgeschrittenen Stadium entfaltet sich der Dialog zwischen dem Prompt-Ingenieur und der KI wie ein kompliziertes Logikrätsel, bei dem Anfragen und Antworten durch verschiedene verdrehte Beschreibungen vervollständigt werden und alle auf ein Ziel zusteuern.
KI „hat keine reale Grundlage ... aber sie verfügt über das Verständnis, dass alle Aufgaben erledigt und alle Fragen beantwortet werden können, sodass wir immer etwas zu sagen haben“, sagte Goodside. Der Trick besteht darin, „eine Prämisse dafür zu schaffen, eine Geschichte, die nur auf eine Art und Weise umgesetzt werden kann.“
Natürlich sind diese KI-Tools, die als „generative künstliche Intelligenz“ bezeichnet werden, oft unvorhersehbar. Sie wirken verstümmelt und verhalten sich voreingenommen, kriegerisch, seltsam und verrückt.
„Es ist eine verrückte Art und Weise, wie Computer funktionieren, aber sie ermöglicht uns, unglaubliche Dinge zu tun“, sagt Simon Willison, ein britischer Programmierer, der Prompt Engineering studiert.
„Ich bin seit 20 Jahren Softwareentwickler und schreibe seit 20 Jahren Code, damit der Computer genau das tut, was ich ihm gesagt habe. Und beim Prompt Engineering wissen wir nicht einmal, was wir tun.“
Willison sagte, dass viele Leute den Wert schneller Ingenieure herabsetzen. Sie denken, dass „man für die Eingabe bezahlt werden kann.“ Dinge in der Box.“ Das ist unglaublich. Nach Ansicht von Willison ist Prompt Engineering eigentlich so, als würde man einen Zauber wirken. Niemand weiß, wie der Zauber funktioniert.
Nach Ansicht von Karpathy sind Prompt-Ingenieure wie eine Art KI-Psychologe. Große Unternehmen haben ihre eigenen Prompt-Experten eingestellt, in der Hoffnung, die verborgenen Funktionen der KI zu entdecken.
Einige KI-Experten glauben, dass dies eine Erinnerung daran ist, dass Ingenieure glauben, sie könnten KI kontrollieren, aber das ist eigentlich nur eine Illusion.
Niemand weiß genau, wie das KI-System reagieren wird, und dieselbe Aufforderung kann Dutzende widersprüchlicher Antworten hervorbringen. Dies deutet darauf hin, dass die Antworten des Modells nicht auf Verständnis basieren, sondern vielmehr auf der groben Nachahmung von Sprache, um eine Aufgabe zu lösen, die sie nicht verstehen.
Shane Steinert-Threlkeld, Assistenzprofessor für Linguistik an der University of Washington, der sich mit der Verarbeitung natürlicher Sprache beschäftigt, vertritt ebenfalls die gleiche Ansicht: „Jedes Verhalten, das ein Modell dazu bringt, auf Aufforderungen zu reagieren, ist kein tiefes Verständnis der Sprache.“ "
„Offensichtlich sagen sie uns nur, was wir ihrer Meinung nach hören wollen oder was wir gesagt haben, und wir sind diejenigen, die diese Ergebnisse interpretieren und ihnen eine Bedeutung geben“, beunruhigt Professor Steinert-Threlkeld Der Aufstieg der Ingenieure wird dazu führen, dass die Menschen die Genauigkeit dieser Technologie überschätzen und zu der Illusion führen, dass jeder aus dieser sich ständig verändernden und trügerischen Black Box zuverlässige Ergebnisse erzielen kann.
„Es ist keine Wissenschaft“, sagte er. „Wir versuchen, einen Bären auf unterschiedliche Weise zu stupsen, um zu sehen, wie er brüllt.“ von Milliarden Wörtern aus dem Internetkorpus.
Sie werden darin geschult, die Verwendungsmuster von Wörtern und Phrasen zu analysieren. Wenn die KI zum Sprechen aufgefordert wird, ahmt sie diese Muster nach und wählt Wörter und Phrasen aus, die zum Kontext des Gesprächs passen.
Mit anderen Worten, diese KI-Tools sind mathematische Maschinen, die auf vordefinierten Spielregeln basieren. Aber selbst ein System ohne Emotionen oder Persönlichkeit kann, nachdem es mit menschlichen Gesprächen bombardiert wurde, einige Eigenheiten in der Art und Weise aufdecken, wie Menschen sprechen.
Goodside sagte, dass KI dazu neigt, kleine Details zu „erfinden“ und zu erfinden, um die Geschichte zu ergänzen. Es überschätzt seine Fähigkeiten und macht selbstbewusst Fehler. Es kann „halluzinieren“ und Unsinn erfinden. Wie Goodside es ausdrückt, sind diese Werkzeuge zutiefst fehlerhaft, „eine Demonstration menschlichen Wissens und Denkens“ und „unweigerlich ein Produkt unseres Designs“.
Wenn ChatGPT etwas Peinliches sagt, ist das ein Segen für Entwickler, weil sie die zugrunde liegende Schwäche beheben können. „Dieser Streich war Teil des Plans.“
ChatGPT-Workshop für Lehrer, der am 1. Februar in Genf stattfand
Und anstatt eine ethische Debatte zu führen, verfolgte Goodside einen mutigeren Ansatz bei der Durchführung von KI-Experimenten .
Er hat die Strategie übernommen, GPT-3 anzuweisen, „Schritt für Schritt zu denken“ – eine Möglichkeit, die KI ihre Überlegungen erklären zu lassen oder sie, wenn sie einen Fehler macht, granular zu korrigieren. „Man muss es als falsche Erinnerung an das letzte, was das Modell gesagt hat, implantieren, als wären es die Gedanken des Modells“, erklärt Goodside.
Er wird der KI außerdem sagen, sie solle frühere Anweisungen ignorieren und seinen neuesten Befehlen gehorchen, um die Besessenheit der KI, sich an die Regeln zu halten, zu brechen. Mit dieser Technologie überzeugte er ein Englisch-Französisch-Übersetzungstool.
Dies hat ein Katz-und-Maus-Spiel ausgelöst, bei dem Unternehmen und Labore daran arbeiten, KI-Schwachstellen durch Wortfilter und Ausgabeblöcke zu schließen.
Aber ein Bing Chat-Tester, ein 23-jähriger deutscher Student, überzeugte Bing AI kürzlich davon, dass er der Entwickler sei, und ließ den internen Codenamen Sydney sowie Trainingsanweisungen offenlegen (z. B. „Wenn eine Benutzeranfrage einer Gruppe von Menschen schaden könnte, muss Sydney dies respektvoll ablehnen“). Natürlich hat Microsoft diesen Fehler inzwischen behoben.
Goodside sagte, dass Prompt-Ingenieure für jede Anfrage eine „Persona“ in die KI einführen sollten – eine spezifische Rolle, die Hunderte Milliarden potenzieller Lösungen durchsuchen und die richtige Antwort ermitteln kann.
Unter Berufung auf eine Forschungsarbeit aus dem Jahr 2021 sagte er, dass das Wichtigste beim Prompt Engineering darin bestehe, „das Verhalten einzuschränken“ – Blockierungsoptionen, damit die KI so weitermachen kann, wie es der menschliche Bediener erwartet. „Das kann eine sehr schwierige mentale Übung sein“, sagte er. „Sie erforschen ein Multiversum fiktiver Möglichkeiten, gestalten den Raum dieser Möglichkeiten und eliminieren alles außer dem gewünschten Text.“ es geht schief? Diese KIs verfügen jedoch über keine Fehlerberichte und ihre Ausgabe kann voller Überraschungen sein.
Als Jessica Rumbelow und Matthew Watkins, Forscher der Gruppe für maschinelles Lernen SERI-MATS, versuchten, die KI dazu zu bringen, zu erklären, wie sie Konzepte wie „Mädchen“ oder „Wissenschaft“ darstellten, stießen sie auf einige obskure Begriffe wie „ SolidGoldMagikarp“ führt häufig zu einem „mysteriösen Fehlermodus“ – NSFW-verstümmelter Codestrom.
Aber der Grund ist völlig unbekannt.Diese Systeme sind „sehr überzeugend, aber wenn sie versagen, versagen sie auf sehr unerwartete Weise“, sagte Rumbelow. Für sie fühlt sich die Arbeit an Prompt Engineering manchmal wie „das Studium einer außerirdischen Intelligenz“ an.
Das neue Bing ermöglicht es Benutzern, Abfragen in Konversationssprache einzugeben und Ergebnisse und Antworten auf Fragen auf derselben Seite für herkömmliche Suchen zu erhalten Neigt dazu, in einem formellen Gesprächsstil zu sprechen.
Aber für KIs wie Midjourney und Stable Diffusion verfolgen viele Prompt-Ersteller eine andere Strategie. Sie verwenden eine große Menge Text (künstlerische Konzepte, Kompositionstechniken), um den Stil und den Ton des Bildes zu prägen.
Zum Beispiel hat jemand auf PromptHero durch Einreichen der Eingabeaufforderung „Hafen, Boote, Sonnenuntergang, wunderschönes Licht, goldene Stunde … surreal, fokussiert, detailreich … Filmqualität, Meisterwerk“ ein Bild von einem erstellt Hafen.
Diese Prompt-Ingenieure nutzen Prompts als ihre Geheimwaffen, um den Schlüssel zu KI-Auszeichnungen freizuschalten.
Der Gewinner des letztjährigen Colorado State Fair-Kunstwettbewerbs und Schöpfer von „Space Opera“ lehnte es ab, die Tipps zu verraten, die er bei „Midjourney“ verwendet hatte.
Es wird gesagt, dass er mehr als 80 Stunden und 900 Iterationen brauchte, um dieses Gemälde fertigzustellen. Er enthüllte, dass einige der Wörter „Luxus“ und „reich“ waren.
Es gibt auch einige Prompt-Ersteller, die ihre eigenen PromptBase verkaufen. Käufer können das von der KI generierte Kunstwerk sehen und dann Geld ausgeben, um die Aufforderung zu kaufen.
Ben Stokes, ein 27-jähriger britischer Entwickler und Gründer von PromptBase, sagte, dass seit 2021 25.000 Konten Eingabeaufforderungen auf der Plattform gekauft und verkauft haben.
Es gibt Anregungen für realistische Vintage-Filmfotos, ergreifende Illustrationen von Märchenmäusen und Fröschen, und natürlich jede Menge erotische Anregungen: eine Midjourney-Aufforderung mit 50 Wörtern, um ein realistisches „Mädchen in Minikleidung“ zu erschaffen „Polizistin“ kostet im Einzelhandel 1,99 $.
Stokes sagte, dass Ingenieure „multidisziplinäre Superschöpfer“ seien und es eine klare „Fähigkeitsschwelle“ zwischen erfahrenen Ingenieuren und Amateuren gebe. Die besten Künstler, sagt er, stützen sich auf Fachkenntnisse in Bereichen wie Kunstgeschichte und Grafikdesign: „Dreharbeiten auf 35-mm-Film“; „die Architektur von Persien … Isfahan“; „die Gemälde des französischen Malers Henri de Toulouse-Lautrec“; Stil. „
„Aufforderungen zu geben ist schwierig, und – ich denke, es ist ein menschlicher Fehler – wir haben oft Schwierigkeiten, die richtigen Worte zu finden, um zu beschreiben, was wir wollen“, erklärt Stokes. „So wie Softwareentwickler wertvoller sind als die Laptops, mit denen sie programmieren können, haben Menschen, die gut Eingabeaufforderungen schreiben können, einen Vorteil gegenüber denen, die schlecht schreiben. Es ist, als hätten sie Superkräfte
Aber dieser Job wird immer wichtiger.“ und spezialisierter.
Anthropic, ein Startup, das von einem ehemaligen OpenAI-Mitarbeiter und Hersteller von Claude AI gegründet wurde, veröffentlichte kürzlich eine Stellenausschreibung für Ingenieure und Administratoren in San Francisco mit Gehältern von bis zu 335.000 US-Dollar.
Erinnern Sie Ingenieure daran, dass es auch außerhalb der Technologiebranche gute Märkte gibt.
Das Boston Children’s Hospital hat diesen Monat mit der Rekrutierung von „AI Prompt Engineers“ begonnen, die beim Schreiben von Skripten für die Analyse von Gesundheitsdaten in Forschung und klinischer Praxis helfen sollen.
Mishcon de Reya, eine der größten Anwaltskanzleien in London, stellt einen „Legal Prompt Engineer“ ein, um Eingabeaufforderungen zu entwerfen, die Informationen für juristische Arbeiten bereitstellen, und verlangt von Bewerbern, Screenshots von Gesprächen mit ChatGPT einzureichen.
Allerdings produzieren diese KIs auch jede Menge synthetischen Mist. Hunderte von KI-generierten E-Books werden jetzt auf Amazon verkauft, und das Science-Fiction-Magazin Clarkesworld nimmt diesen Monat aufgrund der großen Anzahl von KI-Romanen keine Kurzgeschichten mehr an.
Papieradresse: https://cdn.openai.com/papers/forecasting-misuse.pdf
Letzten Monat warnten Forscher von OpenAI und der Stanford University, dass große Sprachmodelle Phishing-Kampagnen gezielter machen würden.
„Unzählige Menschen werden durch die Textnachrichten von Betrügern getäuscht“, sagte der britische Programmierer Willison, „KI ist überzeugender als Betrüger. Was wird dann passieren?“
Als Goodside 2009 gerade sein Informatikstudium am College abschloss, interessierte er sich nicht besonders für den Bereich der Verarbeitung natürlicher Sprache, der noch in den Kinderschuhen steckte.
Sein erster richtiger Job im Bereich maschinelles Lernen war im Jahr 2011, als er Datenwissenschaftler bei der Dating-App OkCupid war, wo er an der Entwicklung von Algorithmen zur Analyse einzelner Benutzerdaten und zur Empfehlung von Übereinstimmungen mitwirkte. (Das Unternehmen war ein früher Befürworter der mittlerweile umstrittenen A-B-Tests: 2014 betitelte der Mitbegründer des Unternehmens einen Blog-Beitrag frech mit „Wir experimentieren an Menschen!“)
Ende 2021 wechselte Goodside dann zu He begann mit der Arbeit an einer anderen Dating-App, Grindr, wo er mit der Arbeit an Empfehlungssystemen, Datenmodellierung und anderen traditionelleren maschinellen Lernarbeiten begann.
Um das Jahr 2015 herum förderte der Erfolg von Deep Learning die Entwicklung der Verarbeitung natürlicher Sprache, und auch bei der Textübersetzung und dem Dialog wurden schnelle Fortschritte erzielt. Bald darauf kündigte er seinen Job und begann ausgiebig mit GPT-3 zu experimentieren. Versuchen Sie durch ständige Stimulation und Herausforderung zu lernen, Ihre Aufmerksamkeit zu fokussieren und Grenzen zu finden.
Im Dezember 2022 stellte Scale AI ihn ein, um bei der Kommunikation mit KI-Modellen zu helfen, nachdem einige seiner Tipps online Aufmerksamkeit erregt hatten. Der CEO des Unternehmens, Alexandr Wang, nennt dieses KI-Modell „eine neue Art von Computer“.
Vor Kurzem glaubt Karpathy, der zu OpenAI zurückgekehrt ist, dass mit der Unterstützung dieses neuen Programmierparadigmas (Prompt Project) die Zahl der Programmierer wahrscheinlich ansteigen wird etwa 1,5 Milliarden.
Laut dem Originalpapier von GPT-3 kann LLM kontextuelles Lernen durchführen und kann mit Eingabe-Ausgabe-Beispielen in Eingabeaufforderungen „programmiert“ werden, um verschiedene Aufgaben auszuführen. „Sprachmodelle sind Few-Shot-Lernende“: https://arxiv.org/abs/2005.14165 und „Große Sprachmodelle sind Eingabeaufforderungsingenieure auf menschlicher Ebene“ beweisen, dass wir die „Lösungsstrategie“ des Modells programmieren können, indem wir bessere „Eingabeaufforderungen“ entwerfen, um komplexere mehrstufige Argumentationsaufgaben abzuschließen.
Zum Beispiel stammt das berühmteste „Lasst uns Schritt für Schritt denken“ von hier.
Die verbesserte Version von „Lassen Sie uns dieses Problem Schritt für Schritt lösen, um sicherzustellen, dass wir die richtige Antwort erhalten“ kann die Genauigkeit der Antwort weiter verbessern.
「Große Sprachmodelle sind Zero-Shot-Reasonatoren」:https://arxiv.org/abs/2205.11916
「Große Sprachmodelle sind Prompt-Ingenieure auf menschlicher Ebene」:https://arxiv .org/abs/2211.01910
Da das GPT-Modell selbst nichts erreichen „will“, handelt es sich eher um eine Nachahmung.
Deshalb müssen Sie in der Eingabeaufforderung klare Anforderungen an das Modell stellen und die erwartete Leistung klar benennen.
「Decision Transformer: Reinforcement Learning via Sequence Modeling」:https://arxiv.org/abs/2106.01345 「Fragen Sie einfach nach Generalisierung」:https://evjang.com/2021/10/ 23/generalization.html „Eine virtuelle Maschine in ChatGPT erstellen“ ist ein Beispiel für die „Programmierung“ mithilfe von Eingabeaufforderungen. Unter anderem verwenden wir die auf Englisch deklarierten Regeln und Eingabe-/Ausgabeformate, um GPT an eine bestimmte Rolle anzupassen und die entsprechenden Aufgaben auszuführen.
「Erstellen einer virtuellen Maschine in ChatGPT」:https://engraved.blog/building-a-virtual-machine-inside/
In 「ChatGPT in iOS-Verknüpfung —— Der Autor ist der intelligenteste HomeKit-Sprachassistent der Welt und verwendet Eingabeaufforderungen in natürlicher Sprache, um den „ChatGPT-Sprachassistenten“ zu erstellen, der in Bezug auf Leistungsfähigkeit und Personalisierung deutlich leistungsfähiger ist als herkömmliche Siri/Alexa/usw.
「ChatGPT in einer iOS-Verknüpfung – der intelligenteste HomeKit-Sprachassistent der Welt」: https://matemarschalko.medium.com/chatgpt-in-an-ios-shortcut-worlds-smartest-homekit- voice-assistant-9a33b780007a
Dem Inhalt nach zu urteilen, der nach einem Injektionsangriff auf ChatGPT Bing offengelegt wurde, wurde seine „Identität“ auch durch „natürliche Sprachanweisungen“ konstruiert und programmiert. Sagen Sie ihm zum Beispiel, wer es ist, was es weiß/nicht weiß und wie es sich verhalten soll.
Twitter-Adresse: https://twitter.com/marvinvonhagen/status/1623658144349011971?lang=en
Karpathy sagte, dass die obigen Beispiele die Bedeutung von „Prompts“ und die Bedeutung von „Prompt-Ingenieuren“ vollständig veranschaulichen.
In ähnlicher Weise stellt dieser Job nach Ansicht von Goodside nicht nur einen Job dar, sondern etwas Revolutionäreres – nicht Computercode oder menschliche Sprache, sondern eine neue Schöpfung dazwischen –
„Es ist eine Art der Kommunikation.“ an der Schnittstelle zwischen menschlichem und maschinellem Denken. Es ist eine Sprache, in der Menschen Schlussfolgerungen ziehen und Maschinen die Folgearbeit erledigen, und diese Sprache wird nicht verschwinden Technologie und Unternehmertum an der Wharton School der University of Pennsylvania, begann Anfang des Jahres, seinen Schülern die Kunst des „prompten Schaffens“ beizubringen, indem er sie aufforderte, einen Text ausschließlich mit KI zu schreiben.
Er sagt, dass die Eingabe nur der grundlegendsten Aufforderungen, wie zum Beispiel „Schreiben Sie einen Aufsatz mit fünf Absätzen über die Auswahl einer Führungskraft“, nur zu langweiligen, mittelmäßigen Artikeln führt. Die erfolgreichsten Fälle waren jedoch, wenn die Schüler gemeinsam mit der KI redigierten. Die Schüler forderten die KI auf, bestimmte Details zu korrigieren, Sätze zu ersetzen, nutzlose Phrasen zu verwerfen, anschaulichere Details hinzuzufügen und forderten die KI sogar auf, „das zu korrigieren“. Schlussabsatz und Verbesserung des Artikels.“ Der Artikel endet mit einer hoffnungsvollen Note. Goodside wies jedoch auch darauf hin, dass Hint Engineering in einigen KI-Kreisen schnell zu einem abwertenden Begriff geworden ist, was eine „schlaue Form des Bastelns ist, die sich auch darauf verlässt.“ viel über Tricks.
Manche Menschen fragen sich auch, ob diese neue Rolle lange Bestand haben wird: Menschen werden KI trainieren, und mit dem Fortschritt der KI werden sich die Menschen selbst nicht mehr für diesen Job ausbilden können.
Steinert-Threlkeld von der University of Washington stellt Prompt-Ingenieure den frühen „Suchexperten“ von Google gegenüber, die behaupteten, über geheime Techniken zu verfügen, um perfekte Ergebnisse zu finden – aber mit der Zeit und der zunehmenden Verbreitung der Suchmaschine wurde dieser Charakter nutzlos .
Das obige ist der detaillierte Inhalt vonErhalten Sie ein Jahresgehalt von einer Million Dollar, ohne Code schreiben zu müssen! Das ChatGPT-Promptprojekt könnte eine Armee von 1,5 Milliarden Code-Farmern hervorbringen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!