ホームページ >テクノロジー周辺機器 >AI >微調整GPT-4Oミニ:ステップバイステップガイド

微調整GPT-4Oミニ:ステップバイステップガイド

William Shakespeare
William Shakespeareオリジナル
2025-03-03 09:20:091016ブラウズ

このチュートリアルは、ソーシャルメディアテキストでのストレス検出のための費用対効果の高いGPT-4Oミニ大規模言語モデルを微調整することを示しています。 微調整と評価の両方にOpenai APIと遊び場を活用し、プロセスの前後のパフォーマンスを比較します。

Fine-tuning GPT-4o Mini: A Step-by-Step Guide

gpt-4o miniの導入:

GPT-4O Miniは、非常に手頃な価格の汎用LLMとして際立っています。 MMLUベンチマークで82%のスコアを誇り、チャット選好(LMSYSリーダーボード)でクロード3.5ソネットを上回り、15セントの入力トークンあたり15セント、出力トークン100万あたり60セントで大幅なコスト削減(GPT-3.5ターボよりも60%安い)を提供します。 テキストと画像の入力を受け入れ、128Kトークンのコンテキストウィンドウを備え、最大16K出力トークンをサポートし、その知識のカットオフは2023年10月です。GPT-4Oトークネイザーのおかげで、英語以外のテキストとの互換性は汎用性に追加されます。 GPT-4o Miniに深く掘り下げるには、ブログ投稿をご覧ください。「GPT-4O MINIとは?」

Openai APIのセットアップ:

OpenAIアカウントを作成します。 微調整には費用がかかるため、先に進む前に最低10ドルのクレジットを確保してください。
    ダッシュボードの「APIキー」タブからOpenAI APIシークレットキーを生成します。
  1. APIキーを環境変数として構成します(DatacampのDatalabはこの例で使用されています)。
  2. Openai Pythonパッケージをインストールします:
  3. OpenAIクライアントを作成し、サンプルプロンプトでテストします。
  4. %pip install openai
Openai APIは初めてですか? 「GPT-4O APIチュートリアル:OpenAIのAPIを始めましょう」は包括的な紹介を提供します。

Fine-tuning GPT-4o Mini: A Step-by-Step Guide ストレス検出のための微調整GPT-4O MINI:Fine-tuning GPT-4o Mini: A Step-by-Step Guide Fine-tuning GPT-4o Mini: A Step-by-Step Guide redditおよび「ストレス」または「非ストレス」とラベル付けされたTwitterの投稿のKaggleデータセットを使用してGPT-4O MINIを微調整します。

1。データセットの作成:

データセットをロードして処理します(たとえば、Reddit Post Datasetの上位200列)。

「タイトル」と「ラベル」列のみを保持します

数値ラベル(0、1)から「非ストレス」および「ストレス」をマップします

トレーニングと検証セットに分割されています(80/20分割)。

両方のセットをJSONL形式で保存し、各エントリにシステムプロンプト、ユーザークエリ(投稿タイトル)、および「アシスタント」応答(ラベル)が含まれるようにします。

    2。データセットのアップロード:
  • OpenAIクライアントを使用して、トレーニングと検証JSONLファイルをアップロードします。

    3。微調整のジョブイニシエーション:

    ファイルID、モデル名(gpt-4o-mini-2024-07-18)、およびハイパーパラメータを指定する微調整ジョブを作成します(例:3エポック、バッチサイズ3、学習レート乗数0.3)。 ダッシュボードまたはAPIを介してジョブのステータスを監視します

    Fine-tuning GPT-4o Mini: A Step-by-Step Guide Fine-tuning GPT-4o Mini: A Step-by-Step Guide Fine-tuning GPT-4o Mini: A Step-by-Step Guide

    微調整されたモデルへのアクセス:

    APIから微調整されたモデル名を取得し、それを使用してAPIまたはOpenaiの遊び場を介して予測を生成します。

    Fine-tuning GPT-4o Mini: A Step-by-Step Guide Fine-tuning GPT-4o Mini: A Step-by-Step Guide

    モデル評価:

    検証セットの精度、分類レポート、および混乱マトリックスを使用して、ベースと微調整されたモデルを比較します。 カスタム

    関数は予測を生成し、

    関数はパフォーマンスメトリックを提供します。 predictevaluate結論:

    このチュートリアルは、微調整GPT-4O MINIの実用的なガイドを提供し、テキスト分類の精度を改善する上でその有効性を紹介します。 詳細と代替アプローチについては、リンクされたリソースを調査することを忘れないでください。 無料のオープンソースの代替品については、「微調整llama 3.2とローカルで使用する」チュートリアルを検討してください。

以上が微調整GPT-4Oミニ:ステップバイステップガイドの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。