大型言語モデル(LLMS)の微調整は、特定の執筆スタイルを採用したり、特定のドメインに焦点を当てるなど、特定のニーズに合わせてLLMをカスタマイズするための不可欠な手法です。 OpenaiとGoogle AI Studioは、この目的のためのツールを提供する2つの主要なプラットフォームであり、それぞれに明確な機能とワークフローがあります。この記事では、以前に書かれた記事をトレーニングデータとして使用して、これらのプラットフォームが微調整されたタスクでどのように機能するかを調べます。 OpenaiプラットフォームとGoogle AI StudioがLLMSを微調整する能力を評価して、私の執筆スタイルを反映するコンテンツを生成します。
目次
- Openaiプラットフォーム
- データの準備
- コード実装
- Openaiプラットフォームでの微調整
- Google AI Studio
- データアップロード
- AIスタジオでの微調整
- よくある質問
Openaiプラットフォーム
OpenAIプラットフォームは、微調整モデル向けの包括的なソリューションを提供し、ユーザーが特定のタスクに合わせてカスタマイズおよび最適化できるようにします。このプラットフォームは、GPT-4OやGPT-4O-MINIを含むさまざまなモデルをサポートしています。 Openaiは、データの準備、モデルトレーニング、評価のガイダンスも提供します。 OpenAIプラットフォームを活用することにより、ユーザーは特定のドメインのモデルのパフォーマンスを強化できます。これにより、ターゲットを絞ったアプリケーションに対してより効果的かつ効率的になります。
微調整のコストは次のとおりです。
モデル | 価格設定 |
---|---|
GPT-4O-2024-08-06 | $ 3.750 / 1M入力トークン $ 15.000 / 1M出力トークン $ 25.000 / 1mのトレーニングトークン |
GPT-4O-MINI-2024-07-18 | $ 0.300 / 1M入力トークン $ 1.200 / 1M出力トークン $ 3.000 / 1mのトレーニングトークン |
微調整されたモデルの推論のコストは、既存のモデルの2倍です。
データの準備
LLMは、微調整のために特定の形式でデータを作成する必要があります。これは、GPT-4OおよびGPT-4O-MINIモデルの例です。
{"Messages":[{"role": "system"、 "content": "marvは、皮肉な事実のチャットボットです。"}、{"rofis": "user"、 "content": "" lole ":" assistant "、" content ":" paris、 "}]
モデルを微調整すると、特定のユーザーロールコンテンツのアシスタントロールコンテンツと同様の応答を作成することが学習されます。
モデルに私たちのコンテンツに似たコンテンツを作成することを望んでいるので、アシスタントコンテンツの代わりにコンテンツを使用する必要があります。
私の記事の1つからこのコンテンツを考えてみましょう。
「したがって、HNSWを使用してグラフを使用してすべてのノードを通過するのではなく、このアルゴリズムの動的なVantage Pointツリーを使用して検索空間をローカリングしています。
ツリーとグラフの両方を使用するこの組み合わせにより、最速かつ最も正確なアルゴリズムの1つになります。」
LLMに上記のようなコンテンツを生成する必要があるため、次のようなアシスタントコンテンツとして追加する必要があります。
{"role": "Assistant"、 "content": "HNSWを使用してグラフを使用してすべてのノードを通過するのではなく、このアルゴリズムのダイナミックvantage Pointツリーを使用して検索スペースをローカリングしています。
ツリーとグラフの両方を使用するこの組み合わせにより、最速かつ最も正確なアルゴリズムの1つになります。 "}
LLMがこのようなコンテンツを生成するには、ユーザーコンテンツが必要です(つまり、プロンプト)。持っていないため、LLMを使用してユーザーコンテンツを生成できます。ユーザーコンテンツは次のとおりです。
{"role": "user"、 "content": "動的な視点の木と階層的な航行可能な小さな世界(HNSW)グラフの組み合わせが、アルゴリズムの検索効率と精度を改善する方法を説明できますか?"}
また、適切なシステムプロンプトを含めて、微調整の例は次のとおりです。
{"Messages":[{"role": "system"、 "content": "あなたは、明確で有益な、魅力的なスタイルで書くアシスタントです。"}、{"rofis": "user"、 "content": "ダイナミックな景色の樹木と階層航海可能な小さな世界(HNSW)の組み合わせがどのように説明できますか? 「アシスタント」、「コンテンツ」:「HNSWを使用してグラフを使用してすべてのノードを通過するのではなく、このアルゴリズムの動的なvantage Pointツリーを使用して検索空間をローカリングしています。
少量のコンテンツを使用すると、モデルがコンテキストを見逃す可能性があります。データの準備中はこれを念頭に置いておく必要があります。ここでは38の例しか使用していませんが、100〜500の例ははるかに優れています。 「my content.csv」ファイルを作成しました。各行には、列名「コンテンツ」の下にコンテンツが書かれています。
次に、コードを使用して、必要なデータを適切な形式で作成しましょう。
コード実装
Openaiバージョン1.57.0はここで使用されています。
1.ライブラリをインポートします。
dotenvインポートload_dotenvから load_dotenv( '/。Env') PDとしてパンダをインポートします Tiktokenをインポートします Openai Import Openaiから
#openaiクライアントを初期化します client = openai()
2.トークンのサイズを確認します。
df = pd.read_csv( 'my content.csv') encoding = tiktoken.get_encoding( 'o200k_base') total_token_count = 0 df ['content']のiの場合: token_count = len(encoding.encode(i)) total_token_count = token_count
トークンをカウントすると、微調整のコストを見積もるのに役立ちます。
3. LLMのユーザーコンテンツを生成します。
def generate_user_content(Assistant_response): #System_Message = {"role": "system"、 "content": "あなたは役立つアシスタントです。あなたのタスクは、アシスタントの応答に基づいてユーザークエリを生成することです。"} system_message = {"role": "system"、 "content": "" "アシスタントの応答を与えられた場合、ユーザークエリを作成するか、 論理的にその応答につながる声明。 ユーザーのコンテンツは、質問や明確化のリクエストの形であり、 提供された回答を与えるアシスタント "" "} Assistant_message = {"role": "Assistant"、 "content":Assistant_response} メッセージ= [System_Message、Assistant_message] Response = client.chat.completions.create( メッセージ=メッセージ、 Model = "gpt-4o-mini"、 温度= 1 )) user_content = response.choices [0] .message.content user_contentを返します
ご覧のとおり、アシスタントコンテンツとして書いたコンテンツを提供し、LLMにユーザーコンテンツを生成するように依頼しました。
user_contents = [] df ['content']のiの場合: user_content = generate_user_content(i) user_contents.append(user_content) df ['user_content'] = user_contents
生成されたユーザーコンテンツを列としてデータフレームに追加できます。データは次のようになります:
ここでは、コンテンツは私によって書かれており、user_contentはLLMによって生成され、微調整中にユーザーロールコンテンツ(プロンプト)として使用されます。
今すぐファイルを保存できます。
df.to_csv( 'user_content.csv'、index = false)
4. JSONLファイルを作成します。
これで、上記のCSVファイルを使用して、微調整に必要に応じてJSONLファイルを作成できます。
メッセージ= pd.read_csv( 'user_content.csv') messages.rename(columns = {'content': 'Assistant_content'}、inplace = true) with open( 'messages_dataset.jsonl'、 'w'、encoding = 'utf-8')as jsonl_file: _、messages.iterrows()のrowe(): user_content = row ['user_content'] Assistant_Content = row ['Assistant_Content'] jsonl_entry = { 「メッセージ」:[ {「役割」:「システム」、「コンテンツ」:「あなたは、明確で有益で魅力的なスタイルで書くアシスタントです。 "}、 {「役割」:「user "、" content ":user_content}、 {「役割」:「アシスタント」、「コンテンツ」:Assistant_Content}]] } jsonl_file.write(json.dumps(jsonl_entry) '\ n')
上記のように、データフレームを繰り返してJSONLファイルを作成できます。
Openaiプラットフォームでの微調整
これで、「messages_dataset.jsonl」を使用してOpenai LLMSを微調整できます。
すでにサインインしていない場合は、ウェブサイトにアクセスしてサインインします。
微調整ジョブがない場合、インターフェイスは次のとおりです。
「詳細」をクリックして、調整可能なハイパーパラメーターを含む微調整に必要なすべての詳細を学習することができます。
それでは、Openaiプラットフォームでモデルを微調整する方法を学びましょう。
- 「作成」をクリックします。小さな窓が開きます。
- 「監視」としてメソッドを選択します
- 「GPT-4O」または「GPT-4O-MINI」としてベースモデルを選択します。 GPT-4O-MINIを使用しているときにエラーが発生したため、GPT-4Oを使用しました。
- JSONLファイルをアップロードします。
- 微調整するジョブに関連する「接尾辞」を追加します
- 再現性のために任意の数値を「シード」として使用します。
- ハイパーパラメーターを選択し、デフォルト値を使用するようにしておきます。それらの選択に関するガイドラインについては、上記のドキュメントを参照してください。
これで、「作成」をクリックして微調整を開始できます。
微調整が完了すると、次のように表示されます。
右ボトムコーナーのボタンをクリックすると、微調整されたモデルを遊び場で既存のモデル応答と比較できます。
以下は、両方のモデルを比較する回答の例です。
ご覧のとおり、両方のモデルの応答には大きな違いがあります。
より多くの例を使用すると、結果が改善される可能性があります。
それでは、Google AI Studioについて学びましょう。
Google AI Studio
Google AI Studioは、Gemini LLMSを使用してアプリケーションを構築するためのWebベースのツールです。また、ユーザーは自分のデータを使用してLLMを微調整することもできます。このカスタマイズにより、特定のタスクまたは業界のモデルのパフォーマンスが向上し、関連性が高く効果的になります。 Gemini Modelsの微調整機能は新しく発売されており、現在Gemini 1.5 Flashのみで利用可能です。チューニングは2025年1月の時点で無料であり、推論のコストは既存のモデルと同じです。
詳細:GoogleのAIスタジオ:ジェミニの創造的な宇宙へのゲートウェイ!
データアップロード
Geminiモデルの場合、データ形式は次のとおりです。
training_data = [<br><br> {"text_input": "1"、 "output": "2"}、<br><br> {"text_input": "3"、 "output": "4"}、]
Google AI Studioは、CSVファイルからデータをアップロードするためのGUI(グラフィカルユーザーインターフェイス)を提供します。これを行うには:
- https://aistudio.google.com/prompts/new_dataを開きます
- 「アクション」をクリックしてから、「インポート例」をクリックします。
- 次に、CSVファイルをアップロードします。画面は次のようになります:
- user_contentを入力列として、コンテンツを出力列として割り当てます。
- 次に、例をインポートします。不要な列を削除してから、右上隅の「保存」ボタンを使用してデータを保存できます。
AIスタジオでの微調整
モデルを微調整するには、https://aistudio.google.com/tuneにアクセスしてください。
画面は次のようになります:
次に、以下の手順に従ってください。
- ドロップダウンメニューからインポートされたデータを選択します。
- チューニングモデルに名前を付けます。
- 高度な設定の詳細については、https://ai.google.dev/gemini-api/docs/model-tuningを参照してください。
- 完了したら、「チューニング」をクリックします。
次のように、「ライブラリ」で調整されたモデルを見つけることができます。
上記の画像に示すように、チャットでモデルを使用することもできます。
結論
OpenAIプラットフォームとGoogle AI Studioを使用した大規模な言語モデルを微調整すると、ユーザーは特定のニーズに合わせてモデルを調整できます。これは、LLMにユニークなライティングスタイルを採用するか、ドメイン固有のパフォーマンスを向上させることです。どちらのプラットフォームも、データの準備とトレーニングのための直感的なワークフローを提供し、モデルの動作を最適化するための構造化された形式をサポートします。アクセス可能なツールと明確なドキュメントにより、ユーザーはLLMSの可能性を最大限に引き出して、目的のタスクや目標に密接に合わせてロックを解除できるようにします。
よくある質問
Q1。大規模な言語モデル(LLMS)のコンテキストでは微調整とは何ですか?A.微調整とは、特定のタスク、スタイル、またはドメインに動作を適応させるために、カスタムデータに関する事前に訓練された言語モデルをトレーニングするプロセスです。これには、ユーザー要件と整合したモデルの応答をガイドするために、入出力ペアの例を提供することが含まれます。
Q2。 OpenaiプラットフォームとGoogle AI Studioでの微調整には、どのようなデータ形式が必要ですか?A. OpenAIプラットフォームには、構造化されたJSONL形式のデータが必要です。通常は、「システム」、「ユーザー」、「アシスタント」などの役割を備えています。 Google AI Studioは、「text_input」および「output」フィールドを備えたよりシンプルな形式を使用します。ここでは、入力と目的の出力が明確に定義されています。
Q3。効果的な微調整にはどのくらいのデータが必要ですか?A. 30〜50の例を備えた小さなデータセットにはいくつかの結果が表示される場合がありますが、100〜500の例を備えたより大きなデータセットは、一般に、モデルに多様でコンテキストが豊富なシナリオを提供することで、より良いパフォーマンスをもたらします。
Q4。微調整のコストは、OpenaiプラットフォームとGoogle AI Studioをどのように比較しますか?A.トレーニング中のトークンの使用に基づく微調整のためのOpenai料金、より大きなモデルのコストが高くなります。 Google AI Studioは現在、Gemini 1.5 Flashモデルの無料微調整を提供しており、実験に費用対効果の高い選択肢となっています。
Q5。 LLMを微調整することの主な利点は何ですか?A.微調整により、ユーザーは、特定のトーンやスタイルでコンテンツを生成する、ドメイン固有のタスクの精度を向上させるなど、特定の要件に合わせてモデルをカスタマイズでき、モデルを意図したユースケースにより関連させることにより、ユーザーエクスペリエンス全体を強化できます。
以上がOpenaiプラットフォームvs Finetuning LLM用のGoogle AI Studioの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

法的技術革命は勢いを増し、法律専門家にAIソリューションを積極的に受け入れるように促しています。 受動的抵抗は、競争力を維持することを目指している人にとってはもはや実行可能な選択肢ではありません。 なぜテクノロジーの採用が重要なのですか? 法律専門家

多くの人は、AIとの相互作用が匿名であると仮定しており、人間のコミュニケーションとはまったく対照的です。 ただし、AIはすべてのチャット中にユーザーを積極的にプロファイルします。 すべてのプロンプト、すべての単語が分析および分類されます。 AI Revoのこの重要な側面を探りましょう

成功した人工知能戦略は、強力な企業文化サポートから分離することはできません。 Peter Druckerが言ったように、事業運営は人々に依存しており、人工知能の成功も依存しています。 人工知能を積極的に受け入れる組織の場合、AIに適応する企業文化を構築することが重要であり、AI戦略の成功または失敗さえ決定します。 ウェストモンローは最近、繁栄するAIに優しい企業文化を構築するための実用的なガイドをリリースしました。ここにいくつかの重要なポイントがあります。 1. AIの成功モデルを明確にする:まず第一に、AIがどのようにビジネスに力を与えることができるかについての明確なビジョンが必要です。理想的なAI操作文化は、人間とAIシステム間の作業プロセスの自然統合を実現できます。 AIは特定のタスクが得意であり、人間は創造性と判断が得意です

メタはAIアシスタントアプリケーションをアップグレードし、ウェアラブルAIの時代が来ています! ChatGPTと競合するように設計されたこのアプリは、テキスト、音声インタラクション、画像生成、Web検索などの標準的なAI機能を提供しますが、初めてジオロケーション機能を追加しました。これは、メタAIがあなたがどこにいるのか、あなたがあなたの質問に答えるときにあなたが何を見ているのかを知っていることを意味します。興味、場所、プロファイル、アクティビティ情報を使用して、これまで不可能な最新の状況情報を提供します。このアプリはリアルタイム翻訳もサポートしており、レイバンメガネのAIエクスペリエンスを完全に変更し、その有用性を大幅に改善しました。 外国映画への関税の賦課は、メディアや文化に対する裸の力の行使です。実装された場合、これはAIと仮想生産に向かって加速します

人工知能は、サイバー犯罪の分野に革命をもたらし、新しい防御スキルを学ぶことを強いています。サイバー犯罪者は、ディープフォーファリーやインテリジェントなサイバー攻撃などの強力な人工知能技術を、前例のない規模で詐欺と破壊に使用しています。過去1年間、グローバルビジネスの87%がAIサイバー犯罪の標的を絞っていると報告されています。 それでは、どうすればこの賢い犯罪の波の犠牲者になることを避けることができますか?リスクを特定し、個人および組織レベルで保護対策を講じる方法を探りましょう。 サイバー犯罪者が人工知能をどのように使用するか 技術が進むにつれて、犯罪者は、個人、企業、政府を攻撃する新しい方法を常に探しています。人工知能の広範な使用は最新の側面かもしれませんが、その潜在的な害は前例のないものです。 特に、人工知能

人工知能(AI)と人間の知能(NI)の複雑な関係は、フィードバックループとして最もよく理解されています。 人間はAIを作成し、人間の活動によって生成されたデータでそれをトレーニングして、人間の能力を強化または複製します。 このai

人類の最近の声明は、最先端のAIモデルを取り巻く理解の欠如を強調しており、専門家の間で激しい議論を引き起こしました。 この不透明度は本物の技術的危機ですか、それとも単により多くのソフへの道の一時的なハードルですか

インドは、言語の豊かなタペストリーを備えた多様な国であり、地域間のシームレスなコミュニケーションを持続的な課題にしています。ただし、SarvamのBulbul-V2は、高度なテキストからスピーチ(TTS)Tでこのギャップを埋めるのに役立ちます。


ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

VSCode Windows 64 ビットのダウンロード
Microsoft によって発売された無料で強力な IDE エディター

Dreamweaver Mac版
ビジュアル Web 開発ツール

mPDF
mPDF は、UTF-8 でエンコードされた HTML から PDF ファイルを生成できる PHP ライブラリです。オリジナルの作者である Ian Back は、Web サイトから「オンザフライ」で PDF ファイルを出力し、さまざまな言語を処理するために mPDF を作成しました。 HTML2FPDF などのオリジナルのスクリプトよりも遅く、Unicode フォントを使用すると生成されるファイルが大きくなりますが、CSS スタイルなどをサポートし、多くの機能強化が施されています。 RTL (アラビア語とヘブライ語) や CJK (中国語、日本語、韓国語) を含むほぼすべての言語をサポートします。ネストされたブロックレベル要素 (P、DIV など) をサポートします。

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール
