ホームページ >テクノロジー周辺機器 >AI >ミストラルスモール3 |アクセス、機能、パフォーマンスなど
Mistral AIの最新の小言語モデル(SLM)であるMistral Small 3は、印象的なパフォーマンスと効率を提供します。 この24億パラメーターモデルは、多様なAIタスク全体で迅速な応答時間と堅牢な機能を誇っています。 その機能、アプリケーション、アクセシビリティ、ベンチマークの比較を調べてみましょう
Small 3を紹介します。これは、これまでで最も効率的で多用途のモデルです!事前訓練および指示バージョン、Apache 2.0、24B、81%MMLU、150 TOK/s。合成データはなく、推論タスクに最適です。 幸せな建物!
目次
ミストラルスモール3?とは何ですか
Mistral Small 3は、パフォーマンスを犠牲にすることなく低レイテンシを優先します。 その24Bパラメーターは、LLAMA 3.3 70B InstructやQWEN2.5 32Bのような大規模なモデルに匹敵します。 基本モデルとしてリリースされた開発者は、強化学習または微調整を使用してさらに訓練できます。 32,000トークンのコンテキストウィンドウと150トークンあたりのトークン速度により、速度と精度を必要とするアプリケーションに最適です。
多言語サポート(英語、フランス語、ドイツ語、スペイン語、イタリア語、日本語、韓国語、ポルトガル語、オランダ語、ポーランド)
Mistral Small 3はさまざまなベンチマークで優れており、優れた速度を維持しながら、特定の領域でより大きなモデルを上回ることがよくあります。 GPT-4O-MINI、llama 3.3 70b指示、qwen2.5 32b指示、およびgemma 2 27bとの比較は、その強みを強調しています。
参照:PHI 4対GPT 4O-MINI比較1。大規模なマルチタスク言語の理解(MMLU):ミストラルスモール3は81%以上の精度を達成し、多様な主題で強力なパフォーマンスを示します。
2。一般的な目的質問応答(GPQA)メイン:多様な質問に答える際に競合他社を上回り、堅牢な推論能力を示しています。
3。 HumanVal:そのコーディング習熟度は、Llama-3.3-70B-Instruct。に匹敵します
4。数学の指示:Mistral Small 3は、数学的な問題解決における有望な結果を示しています。
Mistral Small 3のスピードアドバンテージ(Llama 3.3 70b類似のハードウェアの指示よりも3倍以上速い)は、その効率を強調しています。
参照:qwen2.5-vl visionモデルの概要
ミストラルスモール3 へのアクセス
Mistral Small 3は、Mistral AIのWebサイト、Face、Ollama、Kaggle、Together Ai、および花火AIを介してApache 2.0ライセンスの下で入手できます。 以下のkaggleの例は、その統合を示しています:
一緒にAIはOpenAI互換APIを提供し、Mistral AIはLa Plateformeを介して展開オプションを提供します。 将来の可用性は、Nvidia Nim、Amazon Sagemaker、Groq、Databricks、およびSnowflakeで計画されています。
(実践的なテスト、アプリケーション、現実世界のユースケース、およびFAQセクションが続き、元のテキストの構造と内容を反映していますが、フローと簡潔さを改善するためのマイナーな言い回し調整があります。画像は元の位置にとどまります。)
pip install kagglehub
from transformers import AutoModelForCausalLM, AutoTokenizer
import kagglehub
model_name = kagglehub.model_download("mistral-ai/mistral-small-24b/transformers/mistral-small-24b-base-2501")
# ... (rest of the code as provided in the original text)
以上がミストラルスモール3 |アクセス、機能、パフォーマンスなどの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。