検索
ホームページテクノロジー周辺機器AIテキスト分類用の微調整llama 3.1

このチュートリアルでは、メンタルヘルスセンチメント分析のためのllama 3.1-8b-itモデルの微調整を示しています。 モデルをカスタマイズして、テキストデータから患者のメンタルヘルスの状態を予測し、アダプターをベースモデルとマージし、ハグのフェイスハブに完全なモデルを展開します。 重要なことに、ヘルスケアでAIを使用する場合、倫理的考慮事項が最も重要であることを忘れないでください。この例は、説明のみを目的としています Kaggleを介してLlama 3.1モデルへのアクセスをカバーし、推論のためにトランスライブラリを使用し、微調整プロセス自体を使用します。 LLMの微調整を事前に理解すること(「微調整LLMSの入門ガイド」を参照)は有益です。

Fine-Tuning Llama 3.1 for Text Classification 著者による画像

ラマ3.1 llama 3.1、Meta AIの多言語大手言語モデル(LLM)は、言語の理解と生成に優れています。 8B、70B、および405Bパラメーターバージョンで利用でき、最適化された変圧器を備えた自動回帰アーキテクチャに基づいています。 多様なパブリックデータについて訓練されており、8つの言語をサポートし、128Kのコンテキスト長を誇っています。 その商業ライセンスはすぐにアクセスでき、さまざまなベンチマークでいくつかの競合他社よりも優れています。

出典:llama 3.1(meta.com)

Fine-Tuning Llama 3.1 for Text Classification

kaggleでllama 3.1にアクセスして使用しています

Kaggleの無料GPU/TPUを活用します。 次の手順に従ってください:

meta.comに登録します(Kaggleメールを使用)

llama 3.1 kaggleリポジトリとリクエストモデルアクセスへのアクセス。

提供された「コード」ボタンを使用してKaggleノートブックを起動します
    希望するモデルバージョンを選択し、ノートブックに追加します。
  1. 必要なパッケージをインストールします(
  2. )。
  3. モデルとトークンザーをロードします:
  4. プロンプトを作成し、推論を実行します:%pip install -U transformers accelerate
from transformers import AutoTokenizer, AutoModelForCausalLM, pipeline
import torch

base_model = "/kaggle/input/llama-3.1/transformers/8b-instruct/1"

tokenizer = AutoTokenizer.from_pretrained(base_model)
model = AutoModelForCausalLM.from_pretrained(base_model, return_dict=True, low_cpu_mem_usage=True, torch_dtype=torch.float16, device_map="auto", trust_remote_code=True)
pipe = pipeline("text-generation", model=model, tokenizer=tokenizer, torch_dtype=torch.float16, device_map="auto")
  1. メンタルヘルス分類のための微調整llama 3.1
messages = [{"role": "user", "content": "What is the tallest building in the world?"}]
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
outputs = pipe(prompt, max_new_tokens=120, do_sample=True)
print(outputs[0]["generated_text"])

Fine-Tuning Llama 3.1 for Text Classification

のセットアップ:

llama 3.1を使用して新しいKaggleノートブックを開始し、必要なパッケージ(

  1. )をインストールし、「メンタルヘルスの感情分析」データセットを追加します。重みとバイアスを構成します(APIキーを使用)。

  2. データ処理:データセットをロードしてクリーン(あいまいなカテゴリを削除:「自殺」、「ストレス」、「人格障害」)、シャッフル、およびトレーニング、評価、およびテストセットに分割します(効率のために3000サンプルを使用)。 ステートメントとラベルを組み込んだプロンプトを作成します

  3. モデルの読み込み:メモリ効率のために4ビット量子化を使用して、llama-3.1-8b-instructモデルをロードします。トークンザーをロードし、パッドトークンIDを設定します

  4. 事前に調整された評価:

    ラベルを予測し、モデルのパフォーマンスを評価する関数を作成します(精度、分類レポート、混乱マトリックス)。 微調整前のモデルのベースラインパフォーマンスを評価します

  5. 微調整:
  6. 適切なパラメーターを使用してLORAを構成します。トレーニングの議論を設定します(環境に必要に応じて調整します)。

    を使用してモデルをトレーニングします。重みとバイアスを使用して進行状況を監視します。 SFTTrainer

  7. ファインチューニング後の評価:
  8. 微調整後のモデルのパフォーマンスを再評価します

    マージと保存:
  9. 新しいKaggle Notebookで、微調整されたアダプターと
  10. および

    を使用してベースモデルをマージします。マージされたモデルをテストします。最終モデルとトークネザーを抱きしめる顔のハブに保存して押します。 PeftModel.from_pretrained() model.merge_and_unload()

    のようなプレースホルダーを実際のファイルパスに置き換えることを忘れないでください。 完全なコードと詳細な説明は、元の、より長い応答で利用できます。 このコンデンスバージョンは、高レベルの概要とキーコードスニペットを提供します。 機密データを操作するときは、常に倫理的な考慮事項を優先します。

以上がテキスト分類用の微調整llama 3.1の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
Huggingface smollmであなたの個人的なAIアシスタントを構築する方法Huggingface smollmであなたの個人的なAIアシスタントを構築する方法Apr 18, 2025 am 11:52 AM

オンデバイスAIの力を活用:個人的なチャットボットCLIの構築 最近では、個人的なAIアシスタントの概念はサイエンスフィクションのように見えました。 ハイテク愛好家のアレックスを想像して、賢くて地元のAI仲間を夢見ています。

メンタルヘルスのためのAIは、スタンフォード大学でのエキサイティングな新しいイニシアチブによって注意深く分析されますメンタルヘルスのためのAIは、スタンフォード大学でのエキサイティングな新しいイニシアチブによって注意深く分析されますApr 18, 2025 am 11:49 AM

AI4MHの最初の発売は2025年4月15日に開催され、有名な精神科医および神経科学者であるLuminary Dr. Tom Insel博士がキックオフスピーカーを務めました。 Insel博士は、メンタルヘルス研究とテクノでの彼の傑出した仕事で有名です

2025年のWNBAドラフトクラスは、成長し、オンラインハラスメントの成長と戦いに参加します2025年のWNBAドラフトクラスは、成長し、オンラインハラスメントの成長と戦いに参加しますApr 18, 2025 am 11:44 AM

「私たちは、WNBAが、すべての人、プレイヤー、ファン、企業パートナーが安全であり、大切になり、力を与えられたスペースであることを保証したいと考えています」とエンゲルバートは述べ、女性のスポーツの最も有害な課題の1つになったものに取り組んでいます。 アノ

Pythonビルトインデータ構造の包括的なガイド-AnalyticsVidhyaPythonビルトインデータ構造の包括的なガイド-AnalyticsVidhyaApr 18, 2025 am 11:43 AM

導入 Pythonは、特にデータサイエンスと生成AIにおいて、プログラミング言語として優れています。 大規模なデータセットを処理する場合、効率的なデータ操作(ストレージ、管理、アクセス)が重要です。 以前に数字とstをカバーしてきました

Openaiの新しいモデルからの代替案からの第一印象Openaiの新しいモデルからの代替案からの第一印象Apr 18, 2025 am 11:41 AM

潜る前に、重要な注意事項:AIパフォーマンスは非決定論的であり、非常にユースケース固有です。簡単に言えば、走行距離は異なる場合があります。この(または他の)記事を最終的な単語として撮影しないでください。これらのモデルを独自のシナリオでテストしないでください

AIポートフォリオ| AIキャリアのためにポートフォリオを構築する方法は?AIポートフォリオ| AIキャリアのためにポートフォリオを構築する方法は?Apr 18, 2025 am 11:40 AM

傑出したAI/MLポートフォリオの構築:初心者と専門家向けガイド 説得力のあるポートフォリオを作成することは、人工知能(AI)と機械学習(ML)で役割を確保するために重要です。 このガイドは、ポートフォリオを構築するためのアドバイスを提供します

エージェントAIがセキュリティ運用にとって何を意味するのかエージェントAIがセキュリティ運用にとって何を意味するのかApr 18, 2025 am 11:36 AM

結果?燃え尽き症候群、非効率性、および検出とアクションの間の隙間が拡大します。これは、サイバーセキュリティで働く人にとってはショックとしてはありません。 しかし、エージェントAIの約束は潜在的なターニングポイントとして浮上しています。この新しいクラス

Google対Openai:学生のためのAIの戦いGoogle対Openai:学生のためのAIの戦いApr 18, 2025 am 11:31 AM

即時の影響と長期パートナーシップ? 2週間前、Openaiは強力な短期オファーで前進し、2025年5月末までに米国およびカナダの大学生にChatGpt Plusに無料でアクセスできます。このツールにはGPT ‑ 4o、Aが含まれます。

See all articles

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

SublimeText3 Linux 新バージョン

SublimeText3 Linux 新バージョン

SublimeText3 Linux 最新バージョン

EditPlus 中国語クラック版

EditPlus 中国語クラック版

サイズが小さく、構文の強調表示、コード プロンプト機能はサポートされていません

PhpStorm Mac バージョン

PhpStorm Mac バージョン

最新(2018.2.1)のプロフェッショナル向けPHP統合開発ツール

MinGW - Minimalist GNU for Windows

MinGW - Minimalist GNU for Windows

このプロジェクトは osdn.net/projects/mingw に移行中です。引き続きそこでフォローしていただけます。 MinGW: GNU Compiler Collection (GCC) のネイティブ Windows ポートであり、ネイティブ Windows アプリケーションを構築するための自由に配布可能なインポート ライブラリとヘッダー ファイルであり、C99 機能をサポートする MSVC ランタイムの拡張機能が含まれています。すべての MinGW ソフトウェアは 64 ビット Windows プラットフォームで実行できます。

ZendStudio 13.5.1 Mac

ZendStudio 13.5.1 Mac

強力な PHP 統合開発環境