ホームページ >テクノロジー周辺機器 >AI >ミストラルスモール3 |アクセス、機能、パフォーマンスなど

ミストラルスモール3 |アクセス、機能、パフォーマンスなど

Lisa Kudrow
Lisa Kudrowオリジナル
2025-03-07 10:23:091030ブラウズ

Mistral AIの最新の小言語モデル(SLM)であるMistral Small 3は、印象的なパフォーマンスと効率を提供します。 この24億パラメーターモデルは、多様なAIタスク全体で迅速な応答時間と堅牢な機能を誇っています。 その機能、アプリケーション、アクセシビリティ、ベンチマークの比較を調べてみましょう

Small 3を紹介します。これは、これまでで最も効率的で多用途のモデルです!事前訓練および指示バージョン、Apache 2.0、24B、81%MMLU、150 TOK/s。合成データはなく、推論タスクに最適です。 幸せな建物!

ミストラルAIツイート

目次

    ミストラルスモール3とは何ですか?
  • キー機能
  • パフォーマンスベンチマーク
  • ミストラルスモール3
  • へのアクセス
  • 実践的なテスト
    • コーディング
    • 数学的推論
    • センチメント分析
  • アプリケーション
  • 実際のユースケース
  • よくある質問

ミストラルスモール3?とは何ですか

Mistral Small 3は、パフォーマンスを犠牲にすることなく低レイテンシを優先します。 その24Bパラメーターは、LLAMA 3.3 70B InstructやQWEN2.5 32Bのような大規模なモデルに匹敵します。 基本モデルとしてリリースされた開発者は、強化学習または微調整を使用してさらに訓練できます。 32,000トークンのコンテキストウィンドウと150トークンあたりのトークン速度により、速度と精度を必要とするアプリケーションに最適です。

Mistral Small 3 | How to Access, Features, Performance, and More

重要な機能

多言語サポート(英語、フランス語、ドイツ語、スペイン語、イタリア語、日本語、韓国語、ポルトガル語、オランダ語、ポーランド)
    ) 関数呼び出しとJSON出力を備えたエージェント中心の機能
  • 高度な推論と会話スキル
  • 柔軟な商業および非営利目的のためのApache 2.0ライセンス
  • 強力なシステムプロンプトサポート
  • 131kの語彙
  • を備えた
  • tekkenトークネザー
  • パフォーマンスベンチマーク

Mistral Small 3はさまざまなベンチマークで優れており、優れた速度を維持しながら、特定の領域でより大きなモデルを上回ることがよくあります。 GPT-4O-MINI、llama 3.3 70b指示、qwen2.5 32b指示、およびgemma 2 27bとの比較は、その強みを強調しています。

参照:PHI 4対GPT 4O-MINI比較

1。大規模なマルチタスク言語の理解(MMLU):ミストラルスモール3は81%以上の精度を達成し、多様な主題で強力なパフォーマンスを示します。

2。一般的な目的質問応答(GPQA)メイン:多様な質問に答える際に競合他社を上回り、堅牢な推論能力を示しています。

3。 HumanVal:そのコーディング習熟度は、Llama-3.3-70B-Instruct。に匹敵します

Mistral Small 3 | How to Access, Features, Performance, and More

4。数学の指示:Mistral Small 3は、数学的な問題解決における有望な結果を示しています。 Mistral Small 3のスピードアドバンテージ(Llama 3.3 70b類似のハードウェアの指示よりも3倍以上速い)は、その効率を強調しています。

参照:qwen2.5-vl visionモデルの概要

ミストラルスモール3

へのアクセス Mistral Small 3は、Mistral AIのWebサイト、Face、Ollama、Kaggle、Together Ai、および花火AIを介してApache 2.0ライセンスの下で入手できます。 以下のkaggleの例は、その統合を示しています:

一緒にAIはOpenAI互換APIを提供し、Mistral AIはLa Plateformeを介して展開オプションを提供します。 将来の可用性は、Nvidia Nim、Amazon Sagemaker、Groq、Databricks、およびSnowflakeで計画されています。

pip install kagglehub
from transformers import AutoModelForCausalLM, AutoTokenizer
import kagglehub
model_name = kagglehub.model_download("mistral-ai/mistral-small-24b/transformers/mistral-small-24b-base-2501")
# ... (rest of the code as provided in the original text)

(実践的なテスト、アプリケーション、現実世界のユースケース、およびFAQセクションが続き、元のテキストの構造と内容を反映していますが、フローと簡潔さを改善するためのマイナーな言い回し調整があります。画像は元の位置にとどまります。)

以上がミストラルスモール3 |アクセス、機能、パフォーマンスなどの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。