ホームページ >テクノロジー周辺機器 >AI >微調整GPT-4Oミニ:ステップバイステップガイド
このチュートリアルは、ソーシャルメディアテキストでのストレス検出のための費用対効果の高いGPT-4Oミニ大規模言語モデルを微調整することを示しています。 微調整と評価の両方にOpenai APIと遊び場を活用し、プロセスの前後のパフォーマンスを比較します。
gpt-4o miniの導入:
GPT-4O Miniは、非常に手頃な価格の汎用LLMとして際立っています。 MMLUベンチマークで82%のスコアを誇り、チャット選好(LMSYSリーダーボード)でクロード3.5ソネットを上回り、15セントの入力トークンあたり15セント、出力トークン100万あたり60セントで大幅なコスト削減(GPT-3.5ターボよりも60%安い)を提供します。 テキストと画像の入力を受け入れ、128Kトークンのコンテキストウィンドウを備え、最大16K出力トークンをサポートし、その知識のカットオフは2023年10月です。GPT-4Oトークネイザーのおかげで、英語以外のテキストとの互換性は汎用性に追加されます。 GPT-4o Miniに深く掘り下げるには、ブログ投稿をご覧ください。「GPT-4O MINIとは?」 Openai APIのセットアップ:OpenAIアカウントを作成します。 微調整には費用がかかるため、先に進む前に最低10ドルのクレジットを確保してください。
%pip install openai
ストレス検出のための微調整GPT-4O MINI:
1。データセットの作成:
データセットをロードして処理します(たとえば、Reddit Post Datasetの上位200列)。
「タイトル」と「ラベル」列のみを保持します数値ラベル(0、1)から「非ストレス」および「ストレス」をマップします
トレーニングと検証セットに分割されています(80/20分割)。両方のセットをJSONL形式で保存し、各エントリにシステムプロンプト、ユーザークエリ(投稿タイトル)、および「アシスタント」応答(ラベル)が含まれるようにします。
3。微調整のジョブイニシエーション:
ファイルID、モデル名(gpt-4o-mini-2024-07-18
)、およびハイパーパラメータを指定する微調整ジョブを作成します(例:3エポック、バッチサイズ3、学習レート乗数0.3)。 ダッシュボードまたはAPIを介してジョブのステータスを監視します
微調整されたモデルへのアクセス:
APIから微調整されたモデル名を取得し、それを使用してAPIまたはOpenaiの遊び場を介して予測を生成します。
検証セットの精度、分類レポート、および混乱マトリックスを使用して、ベースと微調整されたモデルを比較します。 カスタム
関数は予測を生成し、関数はパフォーマンスメトリックを提供します。
predict
evaluate
結論:
このチュートリアルは、微調整GPT-4O MINIの実用的なガイドを提供し、テキスト分類の精度を改善する上でその有効性を紹介します。 詳細と代替アプローチについては、リンクされたリソースを調査することを忘れないでください。 無料のオープンソースの代替品については、「微調整llama 3.2とローカルで使用する」チュートリアルを検討してください。
以上が微調整GPT-4Oミニ:ステップバイステップガイドの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。