Maison >Périphériques technologiques >IA >Mistral Small 3 | Comment accéder, fonctionnalités, performances et plus

Mistral Small 3 | Comment accéder, fonctionnalités, performances et plus

Lisa Kudrow
Lisa Kudroworiginal
2025-03-07 10:23:091036parcourir

Le dernier modèle de petit langage (SLM) de Mistral AI, Mistral Small 3, offre des performances et une efficacité impressionnantes. Ce modèle de paramètres de 24 milliards possède des temps de réponse rapides et des capacités robustes dans diverses tâches d'IA. Explorons ses fonctionnalités, applications, accessibilité et comparaisons de référence.

Présentation de Small 3, notre modèle le plus efficace et le plus polyvalent à ce jour! Version pré-formée et instruite, Apache 2.0, 24b, 81% MMLU, 150 Tok / s. Pas de données synthétiques, ce qui les rend idéales pour le raisonnement de tâches. Bâtiment heureux!

Mistral Ai Tweet

Table des matières

  • Qu'est-ce que Mistral Small 3?
  • Caractéristiques clés
  • Benchmarks de performance
  • Accès à Mistral Small 3
  • tests pratiques
    • codage
    • raisonnement mathématique
    • Analyse des sentiments
  • Applications
  • Cas d'utilisation du monde réel
  • Les questions fréquemment posées

Qu'est-ce que Mistral Small 3?

Mistral Small 3 priorise la faible latence sans sacrifier les performances. Ses paramètres 24B rivalisent avec des modèles plus grands comme LLAMA 3.3 70B Instruct et Qwen2.5 32b Instruct, offrant des fonctionnalités comparables avec des besoins de calcul considérablement réduits. Sorties en tant que modèle de base, les développeurs peuvent davantage le former en utilisant l'apprentissage du renforcement ou le réglage fin. Sa fenêtre de contexte de 32 000 tonnes et sa vitesse de traitement de 150 jetons par seconde le rendent idéal pour les applications exigeant la vitesse et la précision.

Mistral Small 3 | How to Access, Features, Performance, and More

Caractéristiques de clés

  • Support multilingue (anglais, français, allemand, espagnol, italien, chinois, japonais, coréen, portugais, néerlandais, polonais)
  • Capacités centrées sur l'agent avec l'appel de fonction et la sortie JSON
  • Raisonnement avancé et compétences conversationnelles
  • Licence Apache 2.0 pour une utilisation commerciale et non commerciale flexible
  • Strong System Invite Support
  • Tokken Tokenizer avec un vocabulaire 131K

Benchmarks de performance

Mistral Small 3 excelle dans divers repères, surpassant souvent les modèles plus grands dans des zones spécifiques tout en maintenant une vitesse supérieure. Comparaisons avec GPT-4O-MINI, LLAMA 3.3 70B Instruct, Qwen2.5 32b Instruct et Gemma 2 27b mettent en évidence ses forces.

Voir aussi: Phi 4 vs GPT 4O-MINI COMPARAISON

1. Compréhension massive du langage multitâche (MMLU): Mistral Small 3 a atteint une précision de plus de 81%, démontrant de solides performances sur divers sujets.

Mistral Small 3 | How to Access, Features, Performance, and More

2. Question générale Question Répondre (GPQA) Main: Il a surpassé les concurrents dans la réponse à diverses questions, présentant des capacités de raisonnement robustes.

3. Humaneval: Sa compétence de codage est comparable à LLAMA-3.3-70B-Istruct.

Mistral Small 3 | How to Access, Features, Performance, and More

4. Instruct de mathématiques: Mistral Small 3 montre des résultats prometteurs en résolution de problèmes mathématiques.

Mistral Small 3's Speed ​​Advantage (plus de trois fois plus vite que LLAMA 3.3 70B instruction sur le matériel similaire) souligne son efficacité.

Voir aussi: qwen2.5-vl Vision du modèle Présentation

Accès à Mistral Small 3

Mistral Small 3 est disponible sous la licence Apache 2.0 via le site Web de Mistral AI, Hugging Face, Olllama, Kaggle, ensemble AI et Fireworks AI. L'exemple de kaggle ci-dessous illustre son intégration:

pip install kagglehub
from transformers import AutoModelForCausalLM, AutoTokenizer
import kagglehub
model_name = kagglehub.model_download("mistral-ai/mistral-small-24b/transformers/mistral-small-24b-base-2501")
# ... (rest of the code as provided in the original text)

Ensemble, AI propose des API compatibles OpenAI, et Mistral AI offre des options de déploiement via LA Plateforme. La disponibilité future est prévue sur Nvidia NIM, Amazon Sagemaker, Groq, Databricks et Snowflake.

Mistral Small 3 | How to Access, Features, Performance, and More

(Les tests pratiques, les applications, les cas d'utilisation du monde réel et les sections FAQ suivraient, reflétant la structure et le contenu du texte d'origine, mais avec des ajustements de phrasé mineurs pour un flux et une concision améliorés. Les images resteraient dans leurs positions d'origine.)

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn