ホームページ >テクノロジー周辺機器 >AI >リフレクションllama-3.170b:私たちが知っていることのテストと要約
Reflection Llama 3.1:2024年9月6日にリリースされた自己修正LLM
2024年9月6日にデビューしたllama 3.1 70b指示モデルの洗練されたバージョンであるReflection Llama 3.1。この記事では、モデル、その機能、およびそれにアクセスしてテストする方法について説明します。Reflection llama 3.1:開発とタイムライン
モデルの起動により、ベンチマークテストではGPT-4oやClaude 3.5ソネットなどのクローズドソースモデルよりも優れたパフォーマンスを誇っています。 しかし、人為的な分析によるその後のテストにより、矛盾が明らかになりました。 顔への最初のアップロードには、重み付けエラーが含まれていました。 OpenRouterに展開された修正されたバージョンは、Claude Sonnet 3.5として予期しない自己識別を発見し、その真の基盤について疑問を投げかけました。 プライベートAPIテストではパフォーマンスが向上しましたが、独立した検証は不可能でした。このリンク[元のテキストに従って省略されたリンク]を介してアクセスできる最新のハグの顔の反復は、プライベートAPIバージョンより劣るパフォーマンスを実証しました。 再現性の問題は続き、モデルの実際の機能が不確実なままです。
リフレクションを理解するllama 3.1
Reflection Llama 3.1は、Llama 3.1 70b指示モデルを活用し、反射調整を組み込んでいます。このプロセスには次のものが含まれます
Thinking Tags(<thinking></thinking>
モデルは、その推論のエラーを識別および修正します。
<reflection></reflection>
この構造化されたアプローチは、透明性と精度を向上させます。 このモデルは、Glaive AIの合成データを使用してトレーニングされ、高品質のデータセットの重要性を強調しました。 研究段階にあるにもかかわらず、MMLU、Math、GSM8Kなどのベンチマーク上の主要なクローズドソースモデルよりも優れていると伝えられています。 そのクリエイターは、今後のリフレクションLlama 405Bがこれらのモデルを大幅に上回ることを期待しています。
Google ColabでリフレクションLlama 3.1をセットアップしますリフレクションLlama 3.1へのアクセスは、適切なツールを使用して簡単です。 抱き合った顔、オラマ、双曲線ラボで利用できます。 A100 GPU(購入したコンピューティングユニットが必要)を備えたGoogle Colab Proは、70Bモデルに推奨されます。
<output></output>
ランタイム経由でA100 GPUに接続→ランタイムタイプを変更します。
colabの端子を使用して(
およびを使用して)ollama(
)をインストールし、実行()に実行します。 2番目の端末で、反射モデル()をダウンロードします ステップ3:langchain統合 langchain( 反射llama 3.1 in Action モデルは、さまざまなプロンプトでテストされました:
!pip install langchain langchain_community langchain-openai langchain-ollama
)をインストールし、プロンプトテンプレートを定義します(PromptTemplate
from langchain.prompts
およびChatOllamafrom langchain_ollama
を使用)。 ChatOllama(model="reflection", temperature=0)
を使用してモデルを初期化し、入力で呼び出します。 例:reflection_model.invoke({'input': "Hi, how are you?"})
[FAQSセクションは、元のテキストのFAQの直接コピーであるため省略]
以上がリフレクションllama-3.170b:私たちが知っていることのテストと要約の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。