Zephyr-7Bを探索:強力なオープンソースLLM
Openai LLMリーダーボードは、GPT-4のライバルを目指した新しいオープンソースモデルで賑わっており、Zephyr-7Bは傑出した候補です。このチュートリアルでは、WebPilot.aiのこの最先端の言語モデルを調査し、トランスフォーマーパイプラインでの使用とエージェントインストラクションデータセットでの微調整を示しています。 AIは初めてですか? AIの基礎スキルトラックは素晴らしい出発点です。
Zephyr-7bを理解しています Zephyrシリーズの一部である
Zephyr-7Bは、役立つアシスタントとして機能するように訓練されています。その強みは、コヒーレントテキストの生成、言語の翻訳、情報の要約、センチメント分析、およびコンテキスト認識の質問にあります。Zephyr-7B-β:微調整されたマーベル
シリーズの2番目のモデルであるZephyr-7B-βは、微調整されたMistral-7Bモデルです。 公共および合成データセットのブレンドで直接優先最適化(DPO)を使用してトレーニングされ、複雑なクエリの解釈と長いテキストの要約に優れています。 そのリリースでは、MTベンチとアルパカエバルのベンチマークの7Bチャットモデルの中でトップの地位を保持しました。 Zephyr Chatで無料のデモでその機能をテストします。Zephyr Chatの画像
フェイストランスを抱きしめてZephyr-7Bにアクセス
このチュートリアルでは、簡単にアクセスできるようにフェイストランスを抱き締めます。 (読み込みの問題に遭遇した場合は、推論Kaggleノートブックを参照してください。)
ライブラリをインストール:
最新のバージョンがあることを確認してください:
- インポートライブラリ:
!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes
- パイプラインの作成:
import torch from transformers import pipelineは、計算の速度とメモリの使用量の減少を提供します(ただし、精度がわずかに低く)。
-
device_map="auto"
テキストの生成:torch.bfloat16
以下の例は、Pythonコードの生成を示しています
model_name = "HuggingFaceH4/zephyr-7b-beta" pipe = pipeline( "text-generation", model=model_name, torch_dtype=torch.bfloat16, device_map="auto", )
- システムのプロンプト:
prompt = "Write a Python function that can clean the HTML tags from the file:" outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
-
カスタムデータセットで微調整するZephyr-7B
このセクションでは、Kaggleの無料GPU(約2時間)を使用して、カスタムデータセットで微調整するZephyr-7B-betaをガイドします。 (トラブルシューティングについては、微調整されたKaggleノートブックを参照してください。)
環境のセットアップと準備
- ライブラリをインストール:
!pip install -q -U transformers !pip install -q -U accelerate !pip install -q -U bitsandbytes
- インポートモジュール:
import torch from transformers import pipeline
-
Kaggle Secrets(Kaggle Notebooksの場合):ハグの顔と重量とバイアスAPIキーを取得します。
-
顔と重量とバイアスの抱きしめログイン:
model_name = "HuggingFaceH4/zephyr-7b-beta" pipe = pipeline( "text-generation", model=model_name, torch_dtype=torch.bfloat16, device_map="auto", )
- モデル名とデータセット名を定義します:
prompt = "Write a Python function that can clean the HTML tags from the file:" outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
AgentInStruct DataSet Processing関数は、データセットをZephyr-7Bのプロンプトスタイルに適応させます。
format_prompt
messages = [ { "role": "system", "content": "You are a skilled software engineer who consistently produces high-quality Python code.", }, { "role": "user", "content": "Write a Python code to display text in a star pattern.", }, ] prompt = pipe.tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) outputs = pipe( prompt, max_new_tokens=300, do_sample=True, temperature=0.7, top_k=50, top_p=0.95, ) print(outputs[0]["generated_text"])
モデルの読み込みと準備
4ビット精度のロードモデル:
これは、vRAMが限られているGPUでの効率的なトレーニングに不可欠です。- ロードトークイザー:
%%capture %pip install -U bitsandbytes %pip install -U transformers %pip install -U peft %pip install -U accelerate %pip install -U trl
- アダプターレイヤーの追加(PEFT):
# ... (Import statements as in original tutorial) ...
- モデルのトレーニング
!huggingface-cli login --token $secret_hf # ... (wandb login as in original tutorial) ...
HyperParametersを構成します(詳細については、微調整Llama 2チュートリアルを参照してください)。- sftトレーナー:hugging hugging faceのTRLライブラリを使用してトレーナーを作成します。
base_model = "HuggingFaceH4/zephyr-7b-beta" dataset_name = "THUDM/AgentInstruct" new_model = "zephyr-7b-beta-Agent-Instruct"
- トレーニングを開始:
# ... (format_prompt function and dataset loading as in original tutorial) ...
- 微調整されたモデルの保存と展開
# ... (bnb_config and model loading as in original tutorial) ...
モデルを保存:
- 顔のハブを抱き締めるへのプッシュ:
# ... (tokenizer loading and configuration as in original tutorial) ...
- 微調整されたモデルのテスト
# ... (peft_config and model preparation as in original tutorial) ...
結論
Zephyr-7b-betaは印象的な能力を示しています。このチュートリアルは、リソースに制約のあるGPUでさえ、この強力なLLMを利用および微調整するための包括的なガイドを提供します。 より深いLLM知識のためのマスターラージランゲージモデル(LLMS)コンセプトコースを検討してください。
以上がZephyr-7Bの包括的なガイド:機能、使用、微調整の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

Metaは、NVIDIA、IBM、Dellなどのパートナーと協力して、Llama Stackのエンタープライズレベルの展開統合を拡大しました。セキュリティの観点から、MetaはLlama Guard 4、Llamafirewall、Cyberseceval 4などの新しいツールを立ち上げ、AIセキュリティを強化するためにLlama Defendersプログラムを開始しました。さらに、METAは、公共サービス、ヘルスケア、教育の改善に取り組んでいる新興企業を含む、Llama Impact Grantsの150万ドルを10のグローバル機関に分配しています。 Llama 4を搭載した新しいメタAIアプリケーションは、メタAIとして考案されました

人間との相互作用の先駆者であるJoi Aiは、これらの進化する関係を説明するために「AI-lationships」という用語を導入しました。 Joi Aiの関係療法士であるJaime Bronsteinは、これらが人間cを置き換えることを意図していないことを明確にしています

オンライン詐欺とボット攻撃は、企業にとって大きな課題をもたらします。 小売業者は、ボットの買いだめ製品、銀行の戦闘口座の買収、ソーシャルメディアプラットフォームと戦い、なりすまし者と闘っています。 AIの台頭は、この問題を悪化させます

AIエージェントは、マーケティングに革命をもたらす態勢が整っており、以前の技術的変化の影響を上回る可能性があります。 これらのエージェントは、生成AIの大幅な進歩を表し、ChatGPTのような情報を処理するだけでなく、Actioも取る

重要なNBAゲーム4の決定に対するAIの影響 2つの重要なゲーム4 NBAマッチアップは、司会におけるAIのゲームを変える役割を紹介しました。 最初に、デンバーのニコラ・ジョキッチの逃した3ポインターは、アーロン・ゴードンの最後の2秒の路地につながりました。 ソニーのホー

伝統的に、再生医療の専門知識を拡大すると、世界的に大規模な旅行、実践的なトレーニング、長年のメンターシップが必要でした。 現在、AIはこの風景を変えており、地理的な制限を克服し、ENを通じて進歩を加速しています

Intelは、製造プロセスを主要な位置に戻すように取り組んでいますが、Fab Semiconductorの顧客を引き付けてFabでチップを作成しようとしています。この目的のために、Intelは、そのプロセスの競争力を証明するだけでなく、パートナーが馴染みのある成熟したワークフローでチップを製造できることを実証するために、業界へのより多くの信頼を築かなければなりません。今日私が聞いたことはすべて、インテルがこの目標に向かっていると信じています。 新しいCEOのタンリバイの基調講演がその日をキックオフしました。タンリバイは簡単で簡潔です。彼は、IntelのFoundry Servicesにおけるいくつかの課題と、これらの課題に対処し、将来のIntelのFoundry Servicesの成功したルートを計画するために企業が行った対策を概説しています。 Tan Libaiは、IntelのOEMサービスが顧客をより多くするために実装されているプロセスについて話しました

AIのリスクを取り巻く増大する懸念に対処するために、グローバルな専門家保険会社であるChaucer GroupとArmilla AIは、新しいサードパーティの責任(TPL)保険商品を導入するために力を合わせました。 このポリシーは、企業を守ります


ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ドリームウィーバー CS6
ビジュアル Web 開発ツール

メモ帳++7.3.1
使いやすく無料のコードエディター

AtomエディタMac版ダウンロード
最も人気のあるオープンソースエディター

VSCode Windows 64 ビットのダウンロード
Microsoft によって発売された無料で強力な IDE エディター

ホットトピック









