大規模な言語モデル(LLMS)の微調整は、特定のタスクでのパフォーマンスを最適化するために不可欠です。 OpenAIは、GPTモデルを微調整するための堅牢なフレームワークを提供し、組織がドメイン固有の要件に基づいてAIの動作を調整できるようにします。このプロセスは、LLMのカスタマイズにおいて重要な役割を果たし、モデルがより正確で関連性のあるコンテキストを意識した応答を生成できるようにします。また、コード生成とデバッグのためのソフトウェア開発、および契約レビューと判例法の分析のための法的支援にも使用できます。このガイドでは、OpenAIのプラットフォームを使用して微調整プロセスを進め、現実世界のアプリケーションでの微調整モデルのパフォーマンスを評価します。
目次
- 推論のコスト
- openaiプラットフォームのモデルの微調整
- ステップ1:データセットの識別
ステップ4:OpenAIプラットフォームでの微調整
- gpt-4o vs Finetuned GPT-4oパフォーマンスチェック
- クエリ分析
推論のコスト
Openaiプラットフォームでモデルをトレーニングするのにどれくらいの費用がかかりますか。
Model | Pricing | Pricing with Batch API | Training Pricing |
gpt-4o-2024-08-06 | .750 / 1M input tokens.000 / 1M output tokens | .875 / 1M input tokens.500 / 1M output tokens | .000 / 1M training tokens |
gpt-4o-mini-2024-07-18 | .300 / 1M input tokens.200 / 1M output tokens | .150 / 1M input tokens.600 / 1M output tokens | .000 / 1M training tokens |
gpt-3.5-turbo | .000 / 1M training tokens.000 / 1M output tokens | .500 / 1M input tokens.000 / 1M output tokens | .000 / 1M training tokens |
OpenAIプラットフォームでモデルを微調整します
モデルを微調整することで、ユーザーは特定のユースケースのモデルをカスタマイズし、精度、関連性、適応性を向上させることができます。このガイドでは、カスタマーサービスのやり取りに対するよりパーソナライズされた、正確でコンテキストを意識した応答に焦点を当てています。
実際の顧客クエリとインタラクションに関するモデルを微調整することにより、ビジネスは応答の品質を向上させ、誤解を減らし、全体的なユーザーの満足度を向上させることができます。
また読む:初心者向けガイドの大規模な言語モデル(LLMS)OpenAIプラットフォームを使用してモデルをトレーニングする方法を見てみましょう。これを4つのステップで行います:
データセットの識別
dfinetuningデータのダウンロード
- データのインポートと前処理
- Openaiプラットフォームでの微調整
- 始めましょう!
- ステップ1:データセットの識別
- モデルを微調整するには、まずユースケースに合わせた高品質のデータセットが必要です。この微調整プロセスのために、AIデータセットとモデルに人気のあるプラットフォームであるHugging Faceからデータセットをダウンロードしました。抱き合っているフェイスデータセットにアクセスして、微調整に適した幅広いデータセットを見つけることができます。関連するデータセットを検索して、それをダウンロードし、必要に応じてそれを前処理して、特定の要件と一致するようにします。
微調整プロセスのカスタマーサービスデータは、フェイスデータセットを抱き締めることから取得されます。ここからアクセスできます。
llmsデータは、微調整のために特定の形式である必要があります。 GPT-4O、GPT-4O-MINI、およびGPT-3.5-TURBOのサンプル形式
次のステップでは、データがどのように見えるかを確認し、必要な形式でない場合は必要な調整を行います。
ステップ3:データのインポートとプリプロシング
次に、データとプリプロセスを必要な形式にインポートします。
{"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available 1 24/7. How else may I assist you?"}]}これを行うには、次の手順に従います
1。次に、Jupyterノートブックにデータをロードし、必要な形式に一致するように変更します。
ここには6つの異なる列があります。しかし、これらは顧客クエリとそれらに相対的な応答がある列であるため、2つの「命令」と「応答」が必要です。
上記のCSVファイルを使用して、微調整に必要に応じてJSONLファイルを作成できます。上記のように、データフレームを繰り返してJSONLファイルを作成できます。
ここで、JSONとはわずかに異なるJSONLファイル形式でデータを保存しています。
json データを単一のファイルに階層構造(オブジェクトと配列)として保存し、ネストの構造化されたデータに適しています。以下は、JSONファイル形式の例です
{"messages": [{"role": "system", "content": "This is an AI assistant for answering FAQs."}, {"role": "user", "content": "What are your customer support hours?"}, {"role": "assistant", "content": "Our customer support is available 1 24/7. How else may I assist you?"}]}
jsonl は、それぞれが別のライン上に、アレイまたはネストされた構造がない複数のJSONオブジェクトで構成されています。この形式は、大規模なデータセットのストリーミング、処理、およびデータラインごとの処理により効率的です。Belowは、jsonlファイル形式の例です。 ステップ4:Openaiプラットフォームでの微調整
import pandas as pd splits = {'train': 'data/train-00000-of-00001.parquet', 'test': 'data/test-00000-of-00001.parquet'} df_train = pd.read_parquet("hf://datasets/charles828/vertex-ai-customer-support-training-dataset/" + splits["train"])次に、この「query_dataset」を使用して、GPT-4o LLMを微調整します。これを行うには、以下の手順に従ってください。
1。このWebサイトにアクセスして、サインインしていない場合はサインインしてください。ログインしたら、「詳細」をクリックして、微調整プロセスの詳細をご覧ください。
2。 「作成」をクリックすると、小さなウィンドウがポップアップ表示されます。
上記の画像のハイパーパラメーターの内訳は次のとおりです。
バッチサイズ:これは、モデルの重みを更新する前に、1つのパス(またはステップ)で使用されるトレーニング例(データポイント)の数(データポイント)の数を指します。すべてのデータを一度に処理する代わりに、モデルは一度に小さなチャンク(バッチ)を処理します。バッチサイズが小さくなるには時間がかかりますが、より良いモデルを作成する場合があります。ここで正しいバランスを見つける必要があります。大きなものはより安定しているかもしれませんが、はるかに速いかもしれません。
これは、更新されるたびにモデルの重みがどの程度変化するかを調整する要因です。高く設定されている場合、モデルはより速く学習する可能性がありますが、最良のソリューションをオーバーシュートする可能性があります。それが低い場合、モデルはよりゆっくりと学習しますが、より正確になる可能性があります。 エポックの数:
「エポック」は、トレーニングデータセット全体を完全に通過する1つの完全なパスです。エポックの数は、モデルがデータセット全体から何回学習するかを示します。通常、より多くのエポックにより、モデルの学習が改善されますが、多くの人が過剰に適合する可能性があります。3。 「監視」として、選択した「ベースモデル」としてメソッドを選択します。 GPT-4Oを選択しました。
4。トレーニングデータにJSONファイルをアップロードします 5。モデルを微調整するタスクに関連する「サフィックス」を追加します。
6。ハイパーパラメータを選択するか、デフォルト値に任せます。7。 「作成」をクリックすると、微調整が開始されます
8。微調整が完了すると、次のように表示されます。
9。これで、右下隅の「遊び場」をクリックすることにより、微調整されたモデルと既存のモデルを比較できます。
重要なメモ:微調整期間とコストは、データセットのサイズとモデルの複雑さによって異なります。 100個のサンプルなどの小さなデータセットは、コストが大幅に低くなりますが、モデルを十分に微調整することはできませんが、より大きなデータセットには時間とお金の両方の点でより多くのリソースが必要です。私の場合、データセットには約24kのサンプルがあったため、微調整は約7〜8時間かかり、約700ドルかかりました。 注意
高コストを考えると、スケールアップする前に初期テストのために小さなデータセットから始めることをお勧めします。データセットが適切に構造化され、関連性があることを確認することで、パフォーマンスとコスト効率の両方を最適化するのに役立ちます。
gpt-4o vs Finetuned GPT-4Oパフォーマンスチェックモデルを微調整したので、そのパフォーマンスをベースGPT-4Oと比較し、両方のモデルの応答を分析して、精度、明確さ、理解、および関連性の改善があるかどうかを確認します。これは、微調整されたモデルが私たちの特定のニーズを満たし、意図したタスクでより良いパフォーマンスを発揮するかどうかを判断するのに役立ちます。簡潔にするために、3つのプロンプトのサンプル結果が、細かいトイーンと標準のGPT-4Oモデルの両方を形成します。
クエリ1
クエリ:「新しい配送先住所を提出するのを手伝ってください」Finetuned GPT-4Oモデルによる 応答:
GPT-4Oによる
応答:
比較分析
微調整されたモデルは、標準のGPT-4Oと比較して、より詳細でユーザー中心の応答を提供します。 GPT-4oは機能的なステップバイステップガイドを提供しますが、微調整されたモデルは、アドレスの追加と編集を明示的に区別することにより、明確さを強化します。ユーザーにとってより魅力的で安心し、積極的な支援を提供します。これは、カスタマーサービスのベストプラクティスに合わせて、微調整されたモデルの優れた能力を示しています。したがって、微調整されたモデルは、ユーザーフレンドリーで構造化された、サポート的な応答を必要とするタスクのより強い選択です。
クエリ:
「アカウントカテゴリアカウントに変更するために支援が必要です」
応答:
GPT-4Oによる応答:
比較分析
微調整されたモデルは、ベースモデルと比較してユーザーのエンゲージメントと明確さを大幅に向上させます。 GPT-4oは構造化されたが一般的な応答を提供しますが、微調整されたバージョンはより会話的で協力的なトーンを採用し、相互作用をより自然に感じさせます。
クエリ3クエリ:「個人情報を更新する方法がわからない」 応答:
GPT-4Oによる
応答:
比較分析
全体的な比較分析
結論
この場合、モデルを微調整して、顧客によりよく応答します。相互作用がより個人的で、フレンドリーで、サポート的に感じられるようになり、接続が強くなり、ユーザーの満足度が高まります。基本モデルは明確で正確な情報を提供しますが、ロボットで魅力的でないと感じることができます。 Openaiの便利なWebプラットフォームを介してモデルを微調整することは、ドメイン固有のタスクのカスタム大型言語モデルを構築するのに最適な方法です。
よくある質問q1。 AIモデルでは微調整とは何ですか?微調整とは、事前に訓練されたAIモデルを適応させて、特定のタスクを実行するか、より小さなタスク固有のデータセットでさらにトレーニングすることにより、特定の動作を示すプロセスです。これにより、モデルはタスクのニュアンスをよりよく理解し、より正確またはテーラードされた結果を生成することができます。微調整はAIモデルのパフォーマンスをどのように改善しますか? 微調整は、顧客のやり取りに共感を追加するなど、タスクの特定の要件をよりよく処理するように指導することにより、モデルのパフォーマンスを強化します。これにより、モデルはよりパーソナライズされたコンテキストを意識した応答を提供し、相互作用をより人間のように魅力的に感じさせるのに役立ちます。微調整されたモデルはより費用がかかりますか?微調整モデルには、追加のリソースとトレーニングが必要になる場合があり、コストが増加する可能性があります。ただし、より効果的でユーザーフレンドリーなモデルの利点は、特に顧客のやり取りや複雑な問題解決を伴うタスクの場合、初期投資を上回ることがよくあります。自分でモデルを微調整できますか?はい、必要なデータと技術的な専門知識がある場合は、顔、Openaiなどを抱き締める機械学習フレームワークを使用してモデルを微調整できます。ただし、通常、AI、データの準備、トレーニングプロセスを強く理解する必要があります。モデルを微調整するのにどれくらい時間がかかりますか?モデルを微調整するのに必要な時間は、データセットのサイズ、タスクの複雑さ、および利用可能な計算リソースに依存します。広大なデータセットを備えたより大きなモデルでは、数時間から数日以上かかる場合があります。
以上がカスタマーサポートのためのOpenAIプラットフォームでモデルを微調整しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

AIフィールドの評価メトリックとしての「バイブ」の使用の増加について説明しましょう。この分析は、AIの進歩に関する私の進行中のフォーブスコラムの一部であり、AI開発の複雑な側面を調査します(こちらのリンクを参照)。 AI評価のバイブ TRADI

Waymo's Arizona Factory:大量生産する自動運転ジャガー以上 アリゾナ州フェニックスの近くに位置するWaymoは、自律的なジャガーIペースの電気SUVの艦隊を生産する最先端の施設を運営しています。 この239,000平方フィートの工場がオープンしました

S&PグローバルのチーフデジタルソリューションオフィサーであるJigar Kocherlakotaは、同社のAIの旅、戦略的買収、将来に焦点を当てたデジタル変革について議論しています。 変革的なリーダーシップの役割と将来の準備ができています コチェルラコタの役割

アプリからエコシステムまで:デジタル景観のナビゲート デジタル革命は、ソーシャルメディアとAIをはるかに超えています。 私たちは、「すべてのアプリ」の台頭を目撃しています。 サムa

MasterCardのエージェント給与:AI搭載の支払いは、コマースに革命をもたらします VisaのAIを搭載したトランザクション機能は見出しになりましたが、MasterCardはトークン化、信頼、およびエージェントに基づいて構築されたより高度なAI-Native支払いシステムであるエージェントペイを発表しました。

Future Ventures Fund IV:新しいテクノロジーに200万ドルの賭け Future Venturesは最近、過度にサブスクライブされたファンドIVを閉鎖し、合計2億ドルです。 Steve Jurvetson、Maryanna Saenko、およびNico Enriquezが管理するこの新しい基金は、重要なInvを表しています

AIアプリケーションの爆発により、企業は従来の検索エンジン最適化(SEO)から生成エンジン最適化(GEO)に移行しています。 Googleがシフトをリードしています。その「AIの概要」機能は、10億人以上のユーザーにサービスを提供しており、ユーザーがリンクをクリックする前に完全な回答を提供しています。 [^2] 他の参加者も急速に上昇しています。 ChatGpt、Microsoft Copilot、Perplexityは、従来の検索結果を完全にバイパスする新しい「Answer Engine」カテゴリを作成しています。 これらのAIに生成された回答にビジネスが表示されない場合、従来の検索結果で高くランク付けされていても、潜在的な顧客は決してあなたを見つけることはありません。 SEOからGeoまで - これは正確に何を意味しますか? 何十年もの間

人工一般情報(AGI)への潜在的なパスを探りましょう。 この分析は、AIの進歩に関する私の進行中のフォーブスコラムの一部であり、AGIと人工的な緊急事態(ASI)を達成する複雑さを掘り下げています。 (関連するアートを参照してください


ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

WebStorm Mac版
便利なJavaScript開発ツール

Safe Exam Browser
Safe Exam Browser は、オンライン試験を安全に受験するための安全なブラウザ環境です。このソフトウェアは、あらゆるコンピュータを安全なワークステーションに変えます。あらゆるユーティリティへのアクセスを制御し、学生が無許可のリソースを使用するのを防ぎます。

VSCode Windows 64 ビットのダウンロード
Microsoft によって発売された無料で強力な IDE エディター

ドリームウィーバー CS6
ビジュアル Web 開発ツール

DVWA
Damn Vulnerable Web App (DVWA) は、非常に脆弱な PHP/MySQL Web アプリケーションです。その主な目的は、セキュリティ専門家が法的環境でスキルとツールをテストするのに役立ち、Web 開発者が Web アプリケーションを保護するプロセスをより深く理解できるようにし、教師/生徒が教室環境で Web アプリケーションを教え/学習できるようにすることです。安全。 DVWA の目標は、シンプルでわかりやすいインターフェイスを通じて、さまざまな難易度で最も一般的な Web 脆弱性のいくつかを実践することです。このソフトウェアは、
