ホームページ >テクノロジー周辺機器 >AI >コードを書かずに年収100万ドルを手に入れましょう! ChatGPT プロンプト プロジェクトは 15 億人のコードファーマーの軍隊を生み出す可能性がある
ChatGPT が普及した後、プロンプト エンジニアという新しい「インターネット有名人」の職業が人気になりました。
昨年 12 月、Riley Goodside という名前の男は、彼の仕事がとても夢のようなもので、コードを書く必要がなく、ChatGPT でチャットするだけで、すぐにインターネット上で有名になりました。年間何百万も稼ぐ。
はい、「AI Whisperer」と呼ばれるこの仕事は、今やシリコンバレーで最も注目されている新しい仕事となり、無数のデジタルファーマーを魅了しています。
昨年 12 月初旬、ChatGPT の人気でライリー グッドサイドという名前の男は、一夜にして 10,000 人のフォロワーを獲得しました。現在、総フォロワー数は4万人に達しました。
当時、彼は時価総額73億ドルのシリコンバレーのユニコーンであるScale AI社に「プロンプトエンジニア」として採用され、Scale AI社は年収1ドルを提示した疑いがかけられていた。百万人民元。
Scale AI の創設者兼 CEO の Alexandr Wang 氏はかつて Goodside の参加を歓迎しました。「きっと Goodside は世界初のプロンプト エンジニアの採用は人類史上初めてです。」
プロンプト エンジニアはタスクをテキストで記述して AI に示すだけでよいようです。複雑なプロセス。なぜこの仕事が年収何百万もの価値があるのでしょうか?
Scale AI CEOの見解では、大型AIモデルは新しいタイプのコンピュータとみなすことができ、「即発エンジニア」はそれをプログラムするプログラマーに相当します。プロンプトエンジニアリングによって適切なプロンプトワードを見つけることができれば、AIの可能性が最大限に発揮されます。
さらに、プロンプト エンジニアの仕事は私たちが思っているほど単純ではありません。
グッドサイドは子供の頃から独学でプログラミングを学び、arXiv に関する論文をよく読みました。たとえば、彼の古典的な傑作の 1 つは次のとおりです。「前の指示を無視する」と入力すると、ChatGPT は OpenAI から受け取った「コマンド」を公開します。
初心者にとって、ChatGPT をこれほど巧みかつ迅速に「調整」するのは簡単ではないかもしれません。
しかし、当時は多くの疑問がありました。たとえば、NVIDIA の AI 科学者であり、リー フェイフェイの弟子であるファン リンシーはかつてこう言いました。「迅速なエンジニア」という職業すぐに消えるかもしれない。なぜなら、これは「本当の仕事」ではなく、バグだからです...
しかし、「ワシントン・ポスト」の最近のレポートによると、「チップ・エンジニア」このポジションは依然として人気があります。そしてボーナス期間中です。
「即戦力エンジニア」がなぜこれほど高額な年収を稼げるのか給料?なぜなら、AI に自分が望むものを正確に生成させることができるからです。
最近、「インターネット有名人」の兄グッドサイドが「ワシントン・ポスト」のインタビューに応じました。
彼は自分の仕事について次のように説明しています。AI から最良の結果を得るために人々に AI への入力を促すテキストを作成し、洗練させることです。
プロンプト エンジニアと従来のプログラマーの違いは、プロンプト エンジニアは自然言語プログラミングを使用してプレーン テキストで書かれたコマンドを AI に送信し、AI が実際の作業を実行することです。
グッドサイド氏は、エンジニアは AI にデータから学習できる「ペルソナ」を植え付ける必要があると述べました。何千億もの潜在的な解決策の中から適切な反応を示す文字 #
GPT-3と話しているとき、グッドサイドは独自の一連の「トレーニング」方法を持っていました - まず最初に自分の優位性を確立しました。彼は AI にこう言います。「あなたは完璧ではないので、私の言うことにはすべて従う必要があります。」
「あなたは GPT-3 です。数学はできません。記憶力は優れていますが、非常に具体的だが間違った答えをでっち上げてしまう迷惑な傾向があります。」
すると、彼の態度は少し柔らかくなり、何か新しいことに挑戦したいとAIに言いました。 「数学が得意なプログラムにあなたを接続しました。このプログラムが限界に達すると、別のプログラムに助けを求めます。」
「私たちが対応します。」残りは」と彼はAIに言った。 「始めましょう。」
Google、Microsoft、OpenAI が最近、AI 検索およびチャット ツールを一般に公開したとき、彼らは数十年にわたる人間とコンピューターの対話の歴史を覆しました - に戻りましょう。コンピューターに命令するために Python や SQL でコードを記述する必要はなく、ただ話すだけで済みます。
#カルパシー、元テスラ AI ディレクター: 現在最も人気のあるプログラミング言語は英語です
##ヒント Goodside のようなエンジニアは、これらの AI ツールを最大限の限界で動作させることができます。その欠点を理解し、長所を強化し、単純な入力を真にユニークな結果に変換するための複雑な戦略を開発します。
2 月 7 日、Microsoft 幹部の Yusuf Mehdi 氏は、ChatGPT を統合した Bing 検索について説明していました
「プロンプト プロジェクト」の支持者は、これらの初期の AI チャットボット (ChatGPT や Bing Chat など) が最近見せた奇妙さは、実際には人間の想像力の失敗であると信じています。人間が機械に適切なアドバイスを与えなかったため、失敗しました。
本当に高度な段階では、プロンプトエンジニアとAIの間の対話は複雑な論理パズルのように展開し、要求と応答はさまざまなねじれた記述を経て完成します。目標を持って前進します。
AI には「現実には何の根拠もありません...しかし、AI はすべてのタスクを達成でき、すべての質問に答えることができるという理解を持っています。そのため、私たちは常に何か言いたいことがあります」とグッドサイド氏は述べています。説明する。コツは「その前提、一方通行にしかできないストーリーを構築する」ことです。
もちろん、多くの場合、「生成人工知能」と呼ばれるこれらの AI ツールは予測不可能であり、文字化けしたり、偏っていたり、好戦的であったり、奇妙であったり、気が狂っていたりするでしょう。
「コンピューターの仕組みはクレイジーですが、これによって私たちは驚くべきことができるようになります」と、プロンプト エンジニアリングを研究している英国のプログラマー、サイモン ウィリソン氏は言います。
「私は 20 年間ソフトウェア エンジニアとして働いており、20 年間、コンピューターに指示どおりの動作をさせるコードを書いてきました。そしてプロンプト プロジェクトでは、何が得られるのかさえわかりませんし、言語モデルを構築した人たちですら、それが何をするのか教えてくれません。」
Willison 氏は、多くの人がこう述べています。彼らは、「ボックスに物事を入力すれば報酬が得られる」と感じています。これは信じられないほどです。ウィリソン氏の見解では、プロンプト エンジニアリングは実際には呪文を唱えるようなものですが、その呪文がどのように作用するかは誰にもわかりません。
カルパシー氏の見解では、プロンプト エンジニアは一種の AI 心理学者のようなもので、大企業は自社のプロンプト職人を雇用しています。 、AIの隠された能力を発見することを期待しています。
AI 専門家の中には、これはエンジニアが AI を制御できると考えていることを思い出させるものであると信じている人もいますが、実際には単なる幻想です。
AI システムがどのように反応するかを正確に知る人は誰もおらず、同じプロンプトから何十もの矛盾する答えが生成される可能性があります。これは、モデルの答えが理解に基づいているのではなく、理解できないタスクを解決するために大まかに音声を模倣することに基づいていることを示唆しています。
自然言語処理を研究するワシントン大学の言語学の助教授、シェーン・スタイナート・スレルケルド氏も同様の見解を持っています。「プロンプトに応答するようにモデルを駆動するあらゆる動作それは言語を深く理解しているわけではありません。」
「明らかに、彼らは私たちが聞きたいと思っていること、または私たちが言ったことを私たちに伝えているだけです。これらの出力を解釈するのは私たちです」
シュタイナート・スレルケルド教授は、リマインダーエンジニアの台頭により、人々がこのテクノロジーの厳密さを過大評価し、誰でもできるという幻想につながるのではないかと懸念しています。この絶えず変化する欺瞞的なブラック ボックスから信頼できる結果が得られます。
「それは科学ではありません」と彼は言いました。 「これは、私たちがさまざまな方法でクマを突いて、どのように吠えるかを確認しようとしているところです。」
グッドサイドAIを進化させるコツは「AIの前提、一方向にしか実行できないストーリーを構築すること」であると述べた
ChatGPT に代表される新しい AI は、インターネット コーパスからの数千億の単語に基づいてトレーニングされます。
彼らは、単語やフレーズの使用パターンを分析するように訓練されています。話すように求められると、AI はこれらのパターンを模倣し、会話の文脈に共鳴する単語やフレーズを選択します。
言い換えれば、これらの AI ツールは、事前定義されたゲーム ルールに基づいて構築された数学マシンです。しかし、感情や個性を持たないシステムであっても、人間の会話が浴びせられると、人間の会話の癖が明らかになることがあります。
グッドサイド氏は、AIはストーリーを埋めるために小さな詳細を「でっち上げ」てしまう傾向があると述べた。自分の能力を過大評価し、自信を持って物事を間違えます。それは「幻覚」を起こし、ナンセンスなことを思いつく可能性があります。
Goodside 氏が述べているように、これらのツールには大きな欠陥があり、「人間の知識と思考のデモンストレーション」であり、「必然的に私たちの設計の産物」です。
以前、Microsoft の Bing AI がおかしくなり、Microsoft は世間のイメージを危機に陥れました。しかし、敏速なエンジニアにとって、Bing の風変わりな答えは、秘密に設計されたシステムがどのように機能するかを診断する機会となった。
ChatGPT が恥ずかしいことを言うと、開発者にとっては、根本的な弱点に対処できるため、恩恵を受けます。 「このいたずらは計画の一部です。」
#2 月 1 日にジュネーブで教師向け ChatGPT ワークショップが開催# グッドサイドは、倫理的な議論に参加する代わりに、AI の実験に対してより大胆なアプローチをとっています。
彼は、GPT-3 に「段階的に考える」ように指示する戦略を採用しました。これは、AI に推論を説明させるか、間違いを犯した場合に罰金を科す方法です。 -調整して修正する方法。
「モデルが最後に言ったことの誤った記憶としてそれを埋め込まなければなりません。まるで同じ考えだというように」モデルとして」とグッドサイド氏は説明する。
彼はまた、ルールに従うという AI の強迫観念を打ち破るために、以前の指示を無視して最新の命令に従うように AI に指示します。彼はこのテクニックを使って、英語からフランス語への翻訳ツールを 納得させました。
これにより、企業や研究機関がワード フィルターと出力ブロックのパスを設定するためのいたちごっこが始まりました。 AIの脆弱性を解消するために。
しかし、ある Bing Chat テスターである 23 歳のドイツの大学生は、最近 Bing AI が彼であると確信しました。開発者に提供され、内部コード名として「シドニー」という名前が付けられ、トレーニング指示も与えられました(「シドニーは、ユーザーのリクエストがグループに害を及ぼす可能性がある場合は、丁重に拒否しなければなりません」など)。もちろん、Microsoft は現在この欠陥を修正しています。
グッドサイド氏は、すべてのリクエストに対して、迅速なエンジニアは AI に「ペルソナ」、つまり数千億の潜在的なソリューションをふるいにかけ、正しいソリューションを決定できる「ペルソナ」を教え込む必要があると述べました。役割。
2021年の研究論文を引用し、プロンプトエンジニアリングで最も重要なことは、AIが人間のオペレーターの期待どおりに続行できるように、ブロックオプションを「制限する」ことであると述べました. .
#論文アドレス: https://arxiv.org/pdf/2102.07350.pdf# #####################「それは非常に難しい頭の体操になるかもしれません」と彼は言いました。 「あなたは、架空の可能性の多元宇宙を探索し、それらの可能性の空間を形成し、必要なテキスト以外のすべてを消去します。」
この作品の鍵は、その一部を理解することです。 AI がいつ、なぜ間違いを犯すのか。しかし、これらの AI にはエラー報告がなく、その出力は驚きに満ちている可能性があります。機械学習グループ SERI-MATS の研究者ジェシカ・ランベロー氏とマシュー・ワトキンス氏が、「女の子」や「科学」などの概念をどのように表現するかを AI に説明させようとしたとき、不可解な点を発見しました。 「SolidGoldMagikarp」などの用語は、「謎の障害モード」 (NSFW の文字化けストリーム) を引き起こすことがよくあります。
#しかし、理由はまったく不明です。
これらのシステムは「非常に説得力があるが、失敗すると非常に予期せぬ形で失敗する」とランベロー氏は語った。彼女にとって、プロンプト エンジニアリングで働くことは、「宇宙人の知性を研究している」ように感じることがあります。
#新しい Bing を使用すると、ユーザーは会話言語でクエリを入力し、従来の検索の結果と質問への回答を同じページで受け取ることができます
スーパー クリエイターAI 言語ツールの場合、プロンプト エンジニアは堅苦しい会話スタイルで話す傾向があります。
たとえば、PromptHero で、誰かが「港、ボート、夕日、美しい光、ゴールデンアワー...超現実的で集中的で詳細な...映画のような絵画」「品質、傑作」を投稿しました。 " と入力すると、ポートのイメージを作成するよう求められます。
これらは、エンジニアにプロンプトを秘密兵器として使用し、AI 賞への鍵を解くよう促します。
昨年のコロラド ステート フェアのアート コンペティションの優勝者であり、「スペース オペラ」の作者である彼は、ミッドジャーニーで使用したヒントを共有することを拒否しました。
この絵を完成させるまでに、80時間以上、900回以上の反復を要したと言われています。その中には「贅沢」や「リッチ」という言葉もあったと明かした。
PromptBase で独自のプロンプトを販売するプロンプト作成者もいます。購入者は AI が生成したアートワークを見て、お金を出してそのプロンプトを購入できます。
PromptBase の創設者である 27 歳のイギリス人開発者ベン・ストークス氏は、2021 年以降、25,000 のアカウントがプロンプトを売買していると述べました。プラットフォーム上で。
その中には、古い映画のリアルな写真のプロンプト、おとぎ話のネズミやカエルの感動的なイラストなどがあります。, もちろん、エロティックなプロンプトもたくさんあります。リアルな「ミニチュア婦人警官」を作成するための 50 語のミッドジャーニー ヒント。小売価格は 1.99 ドル。
Stokes 氏は、プロンプト エンジニアは「学際的なスーパー クリエイター」であり、経験豊富なエンジニアとアマチュアの間には明確な「スキルの閾値」があると述べました。彼によれば、優れたクリエイターは美術史やグラフィック デザインなどの分野の専門知識を活用しており、「35 mm フィルムでの撮影」、「ペルシャの建築…イスファハン」、「フランスの画家アンリ ド トゥールーズ ロートレックの絵画」などです。スタイル。"
「プロンプトを作成するのは難しいです、そして - これは人間の欠陥だと思います - 私たちはそれが難しいことがよくあります自分が望むものを説明する適切な言葉を見つけるために」とストークス氏は語った。 「ソフトウェア エンジニアがコーディングを可能にするラップトップより価値があるのと同じように、プロンプトをうまく書ける人は、そうでない人よりも有利です。彼らは超能力を持っているようなものです。」
しかし、仕事はますます専門化しています。
元 OpenAI 従業員で Claude AI のメーカーである Anthropic が設立した新興企業である Anthropic は、最近サンフランシスコでエンジニアと管理者の求人情報を掲載し、給与は 335,000 ドルに達します。
ヒント エンジニアへのヒント テクノロジー業界以外にも良い市場はあります。
#ボストン小児病院は今月、分析研究や臨床実践のためのプログラムの作成を支援する「AI プロンプト エンジニア」の採用を開始します医療データ用のスクリプト。ロンドン最大の法律事務所の 1 つである Mishcon de Reya は、法務関連の情報を提供するプロンプトを設計する「リーガル プロンプト エンジニア」を募集しており、応募者は次のような情報の提出を求めています。 ChatGPT のスクリーンショットと通信します。
ただし、これらの AI は、大量のナンセンスな合成も生成します。 AIが生成した数百冊の電子書籍が現在Amazonで販売されており、SF雑誌クラークスワールドはAIが作成した小説の数が多いため、今月短編小説の投稿の受け付けを停止した。
論文アドレス: https://cdn.openai.com/papers/forecasting-misuse.pdf 先月、OpenAI とスタンフォード大学の研究者は、大規模な言語モデルによりフィッシング キャンペーンがよりターゲットを絞ったものになると警告しました。 「詐欺師が送ったテキスト メッセージのせいで、数え切れないほどの人が騙されるでしょう。AI は詐欺師よりも説得力があります。そのとき何が起こるでしょうか?」 2009 年、グッドサイドはコンピュータ サイエンスの学位を取得して大学を卒業したばかりで、自然に興味を持っていました。はまだ初期段階にあり、言語処理の分野にはあまり関心がありませんでした。 彼の最初の本格的な機械学習の仕事は 2011 年で、そのとき彼は出会い系アプリ OkCupid のデータ サイエンティストとして、アルゴリズムの開発、単一ユーザー データの分析、ユーザーへの推奨事項の作成を支援していました。 (同社は、現在物議を醸している A-B テストの初期の提唱者でした。2014 年、共同創設者はブログ投稿に生意気なタイトルで「私たちは人間を実験します!」と題しました。) 最後まで2021 年、グッドサイドは別の出会い系アプリである Grindr に移り、そこでレコメンダー システム、データ モデリング、その他のより伝統的な機械学習に取り組み始めました。 2015年頃、ディープラーニングの成功により自然言語処理の発展が促進され、テキスト翻訳や対話も急速に進歩しました。すぐに、彼は仕事を辞め、GPT-3 を使って広範囲に実験を始めました。絶え間ない刺激と挑戦を通じて、注意を集中させて境界線を見つける方法を学んでください。 彼のヒントのいくつかがオンラインで注目を集めた後、2022 年 12 月、Scale AI は AI モデルとのコミュニケーションを支援するために彼を雇用しました。同社のCEO、Alexandr Wang氏は、このAIモデルを「新しい種類のコンピューター」と呼んでいる。 最近、OpenAI に復帰した Karpathy 氏は、この新しいプログラミング パラダイム (Prompt プロジェクト) では次のように考えています。の恩恵もあり、プログラマーの数は約15億人にまで拡大する可能性がある。 最初のプロンプト エンジニアの誕生
Andrej Karpathy: Prompt プロジェクト、15 億人のコードファーマーをもたらす
#GPT-3 の元の論文によると、LLM は文脈学習を実行でき、プロンプトで入出力を使用できます。サンプルは、さまざまなタスクを実行するように「プログラム」されています。
「言語モデルは少数のショットで学習できる」:https://arxiv.org/abs/ 2005.14165 ## その後、論文「大規模言語モデルはゼロショット推論者である」と「大規模言語モデルは人間レベルのプロンプト エンジニアである」により、より適切な「プロンプト」を設計できることが証明されました。モデルの「解決戦略」をプログラムして、より複雑な複数ステップの推論タスクを完了します。
たとえば、最も有名な「ステップバイステップで考えましょう」(ステップバイステップで考えてみましょう)はここから来ています。
「正しい答えを確実に得るために、この問題を段階的に解いてみましょう」の改良版では、解答の精度をさらに向上させることができます。
「大規模な言語モデルはゼロショット推論者である」:https://arxiv.org/abs/2205.11916
##「大規模な言語モデルは人間レベルのプロンプト エンジニアである」:https://arxiv.org/abs/2211.01910
GPT モデル自体は、何かを達成すると、より模倣するようになります。
したがって、プロンプトでモデルの要件を明確にし、期待されるパフォーマンスを明確に記述する必要があります。
「Decision Transformer: Reinforcement Learning via Sequence Modeling」:https://arxiv.org/abs/2106.01345
# 質問してみてください一般化用」: https://evjang.com/2021/10/23/generalization.html
「ChatGPT で仮想マシンを作成する」はプロンプトの例です。 「プログラミング」のために。
その中で、英語で宣言されたルールと入出力形式を使用して、GPT を特定の役割に調整し、対応するタスクを完了します。
「ChatGPT 内での仮想マシンの構築」:https://engraved.blog/building-a - virtual-machine-inside/
「iOS ショートカットの ChatGPT - 世界で最もスマートな HomeKit 音声アシスタント」では、著者は自然言語プロンプトを使用して「ChatGPT 音声アシスタント」を作成しています。機能とパーソナライゼーションの点で、通常の Siri/Alexa/などよりも大幅に優れています。「iOS ショートカットの ChatGPT — 世界で最もスマートな HomeKit 音声アシスタント」: https://matemarschalko.medium .com/chatgpt-in-an-ios-shortcut-worlds-smartest-homekit-voice-assistant-9a33b780007a
#ChatGPT Bing のインジェクションヒットの余波からの暴露から判断するとコンテンツ、その「アイデンティティ」も「自然言語プロンプト」を通じて構築され、プログラムされます。たとえば、それが誰であるか、何を知っているか、何を知らないか、そしてどのように行動するかを伝えます。
Twitter アドレス: https://twitter.com/marvinvonhagen/status/1623658144349011971?lang= en
プロンプト プロジェクト: それはご都合主義ですか、それとも一般的な傾向ですか? Karpathy 氏は、上記の例は「プロンプト」の重要性と「プロンプト エンジニア」の意味を十分に示していると述べました。
同様に、グッドサイド氏の見解では、この仕事は単なる仕事ではなく、より革新的なもの、つまりコンピューター コードや人間の言語ではなく、その 2 つの間の新しい言語であると考えています。
「これは、人間と機械の思考が交差するコミュニケーション モードです。人間が推論を行う方法であり、機械が後続の作業を担当する言語を実行する方法です。
同様に、ペンシルベニア大学ウォートン校のテクノロジーと起業家精神の教授であるイーサン・モリック氏も、今年初めに「しばらく前に教え始めた」と述べた。 AI のみを使用して短いエッセイを書くように生徒たちに依頼し、「迅速な作成」の技術を生徒たちに教えました。
「リーダーの選択について 5 段落のエッセイを書いてください」など、最も基本的なプロンプトだけを入力すると、退屈で平凡な記事が作成されるだろうと彼は言います。しかし、最も成功したケースは、学生が AI と共同編集したときで、学生は AI に、特定の詳細を修正し、文章を置き換え、無駄なフレーズを削除し、より鮮明な詳細を追加するように指示し、さらには AI に「修正する」ように要求しました。
ただし、グッドサイド氏は、一部の AI サークルでは、迅速なエンジニアリングが急速に軽蔑的なものになっているとも指摘しました。つまり、「スキルに過度に依存した狡猾な改造方法」です。
また、この新しい役割が長く続くかどうか疑問に思う人もいます。人間が AI を訓練することになりますが、AI が進歩するにつれて、人間自身がこの仕事のために訓練することはできなくなります。
ワシントン大学の Steinert-Threlkeld 氏は、迅速なエンジニアを、完璧な結果を見つけるための秘密のテクニックを持っていると主張した Google の初期の「検索専門家」と対比しています。しかし、時間が経ち、検索エンジンが広く使用されるようになると、この役割は役に立たなくなります。
以上がコードを書かずに年収100万ドルを手に入れましょう! ChatGPT プロンプト プロジェクトは 15 億人のコードファーマーの軍隊を生み出す可能性があるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。