ホームページ >バックエンド開発 >Python チュートリアル >微調整ジョブの送信: 従業員の編成

微調整ジョブの送信: 従業員の編成

DDD
DDDオリジナル
2025-01-06 16:44:40781ブラウズ

Submitting a Fine-Tuning Job: Organising the Workforce

シックス・トリプル・エイトは、任務を遂行するために規律と調整に依存していました。微調整ジョブを作成して送信することでこれを反映し、LLM が厳選されたデータセットから学習できるようにします。

OpenAIによる微調整

client.fine_tuning.job.create() 経由で微調整ジョブを作成するときは、トレーニングのために構成とデータセットを OpenAI に送信します。以下に主要なパラメータとその目的を示します。


1. パラメータの概要

モデル

  • 説明: 微調整する事前トレーニング済み GPT モデル。
  • : "gpt-3.5-turbo"、"davinci"、"gpt-4-mini" (仮説)。

トレーニングファイル

  • 説明: トレーニング データを含むアップロードされた JSONL ファイルのファイル ID。
  • : この ID を取得するには、Files API を使用してデータセットをアップロードし、file_id を保存します。

ハイパーパラメータ

  • 説明: 微調整ハイパーパラメータを指定するディクショナリ。
  • キーフィールド:
    • batch_size: バッチごとのサンプルの数 (デフォルトでは自動)。
    • learning_rate_multiplier: 学習率のスケール係数 (デフォルトでは自動)。
    • n_epochs: エポック数 (データセット全体を通過)。

サフィックス

  • 説明: 微調整されたモデル名に追加されるカスタム文字列 (最大 18 文字)。

種子

  • 説明: 再現性のための整数。
  • 使用法: 実行間で同じランダム化と一貫したトレーニング結果が保証されます。

検証ファイル

  • 説明: 検証セットを含む JSONL ファイルのファイル ID。
  • オプション: ただし、過剰適合を追跡し、十分に一般化されたモデルを確保するために推奨されます。

統合

  • 説明: ジョブに対して有効にする統合 (重みとバイアスなど) のリスト。
  • フィールド: 通常、タイプおよび統合固有の構成が含まれます。

client.fine_tuning.job.create(
    model="gpt-3.5-turbo",
    training_file="train_id",
    hyperparameters={
        "n_epochs": 1
    },
    validation_file="val_id"
)

微調整ジョブの管理
最大 10 個の微調整ジョブを取得します。

client.fine_tuning.jobs.list(limit=10)


特定のジョブを取得する

client.fine_tuning.retrieve("job_id")



ジョブのイベントをリストする

client.fine_tuning.list_events(
    fine_tuning_job_id="xxxx",
    limit=5
)

概要

  • モデルの選択: 微調整する適切な GPT モデルを選択します。

  • データの準備: JSONL ファイルをアップロードし、その ID をメモします。

  • ハイパーパラメータ: 最適なパフォーマンスを得るためにバッチ サイズ、学習率、エポックを調整します。

  • モニタリング: 検証ファイル、ジョブ取得、イベント ログを使用して、モデルが効果的にトレーニングされていることを確認します。

  • 再現性: ワークフローにとって一貫した結果が重要な場合は、シードを設定します。

  • これらの手順に従うことで、OpenAI で微調整ジョブを送信して管理するための明確な道筋が得られ、モデルがカスタム データに基づいて正確にトレーニングされるようになります。

以上が微調整ジョブの送信: 従業員の編成の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。