


Qwen vient de publier 8 nouveaux modèles dans le cadre de sa dernière famille - Qwen3, présentant des capacités prometteuses. Le modèle phare, QWEN3-235B-A22B, a surpassé la plupart des autres modèles, notamment Deepseek-R1, Openai, O1, O3-Mini, Grok 3 et Gemini 2.5-Pro, dans des références standard. Pendant ce temps, le petit QWEN3-30B-A3B a surpassé le QWQ-32B qui a environ 10 fois les paramètres activés comme nouveau modèle. Avec ces capacités avancées, ces modèles s'avèrent être un excellent choix pour un large éventail d'applications. Dans cet article, nous explorerons les caractéristiques de tous les modèles QWEN3 et apprendrons à les utiliser pour construire des systèmes de chiffon et des agents d'IA.
Table des matières
- Qu'est-ce que Qwen3?
- Caractéristiques clés de Qwen3
- Comment accéder aux modèles QWEN3 via API
- Utilisation de Qwen3 pour alimenter vos solutions AI
- Condition préalable
- Construire un agent d'IA à l'aide de Qwen3
- Construire un système de chiffon à l'aide de Qwen3
- Applications de Qwen3
- Conclusion
- Questions fréquemment posées
Qu'est-ce que Qwen3?
Qwen3 est la dernière série de modèles de grande langue (LLMS) dans la famille Qwen, composé de 8 modèles différents. Il s'agit notamment de QWEN3-235B-A22B, QWEN3-30B-A3B, QWEN3-32B, QWEN3-14B, QWEN3-8B, QWEN3-4B, QWEN3-1.7B et QWEN3-0.6B. Tous ces modèles sont publiés sous la licence Apache 2.0, ce qui les rend gratuitement à la disposition des individus, des développeurs et des entreprises.
Alors que 6 de ces modèles sont denses, ce qui signifie qu'ils utilisent activement tous les paramètres pendant la période d'inférence et de formation, 2 d'entre eux sont à l'ouverture:
- QWEN3-235B-A22B: un grand modèle avec 235 milliards de paramètres, dont 22 milliards sont des paramètres activés.
- QWEN3-30B-A3B: un MOE plus petit avec 30 milliards de paramètres totaux et 3 milliards de paramètres activés.
Voici une comparaison détaillée de tous les 8 modèles QWEN3:
Modèles | Couches | Têtes (q / kv) | Cravate | Durée du contexte |
Qwen3-0.6b | 28 | 16/8 | Oui | 32k |
Qwen3-1.7b | 28 | 16/8 | Oui | 32k |
Qwen3-4b | 36 | 32/8 | Oui | 32k |
Qwen3-8b | 36 | 32/8 | Non | 128K |
Qwen3-14b | 40 | 40/8 | Non | 128K |
Qwen3-32b | 64 | 64/8 | Non | 128K |
QWEN3-30B-A3B | 48 | 32/4 | Non | 128K |
QWEN3-235B-A22B | 94 | 64/4 | Non | 128K |
Voici ce que dit la table:
- Couches: Les couches représentent le nombre de blocs de transformateurs utilisés. Il comprend un mécanisme d'auto-atténuation multiples, des réseaux à l'avance des aliments, un codage positionnel, une normalisation de la couche et des connexions résiduelles. Ainsi, lorsque je dis que QWEN3-30B-A3B a 48 couches, cela signifie que le modèle utilise 48 blocs de transformateurs, empilés séquentiellement ou en parallèle.
- Têtes: Les transformateurs utilisent une attention multiples, ce qui divise son mécanisme d'attention en plusieurs têtes, chacune pour apprendre un nouvel aspect à partir des données. Ici, Q / KV représente:
- Q (têtes de requête): Nombre total de têtes d'attention utilisées pour générer des requêtes.
- KV (clé et valeur): le nombre de têtes de clé / valeur par bloc d'attention.
Remarque: Ces têtes d'attention pour la clé, la requête et la valeur sont complètement différentes de la clé, de la requête et du vecteur de valeur généré par une auto-attention.
Lire aussi: Modèles Qwen3: Comment accéder, performances, fonctionnalités et applications
Caractéristiques clés de Qwen3
Voici quelques-unes des principales caractéristiques des modèles QWEN3:
- Pré-formation: le processus de pré-formation se compose de trois étapes:
- Dans la première étape, le modèle a été pré-entraîné sur plus de 30 billions de jetons avec une longueur de contexte de jetons 4K. Cela a enseigné les compétences linguistiques de base du modèle et les connaissances générales.
- Dans la deuxième étape, la qualité des données a été améliorée en augmentant la proportion de données à forte intensité de connaissances comme les tâches STEM, codage et raisonnement. Le modèle a ensuite été formé sur 5 billions de jetons supplémentaires.
- Dans le stade final, des données de contexte long de haute qualité ont été utilisées en augmentant la longueur du contexte à 32k jetons. Cela a été fait pour garantir que le modèle peut gérer efficacement les entrées plus longues.
- Après la formation: Pour développer un modèle hybride capable à la fois d'un raisonnement étape par étape et de réponses rapides, un pipeline de formation en 4 étapes a été mis en œuvre. Cela consistait à:
- Longue chaîne de réflexion (COT)
- Apprentissage du renforcement basé sur le raisonnement (RL)
- Fusion de mode de réflexion
- RL général
- Modes de pensée hybride: les modèles QWEN3 utilisent une approche hybride pour la résolution de problèmes, avec deux nouveaux modes:
- Mode de réflexion: Dans ce mode, les modèles prennent du temps en divisant une déclaration de problème complexe en étapes petites et procédurales pour la résoudre.
- Mode non pensant: dans ce mode, le modèle fournit des résultats rapides et convient principalement à des questions plus simples.
- Prise en charge multilingue: les modèles QWEN3 prennent en charge 119 langues et dialectes. Cela aide les utilisateurs du monde entier à bénéficier de ces modèles.
- Capacités agentiques improvisées: QWEN a optimisé les modèles QWEN3 pour de meilleures capacités de codage et d'agence, le protocole de contexte de modèle de support (MCP).
Comment accéder aux modèles QWEN3 via API
Pour utiliser les modèles QWEN3, nous y accéderons via l'API à l'aide de l'API OpenRouter. Voici comment le faire:
- Créez un compte sur OpenRouter et accédez à la barre de recherche de modèle pour trouver l'API pour ce modèle.
- Sélectionnez le modèle de votre choix et cliquez sur «Créer une clé API» sur la page de destination pour générer une nouvelle API.
Utilisation de Qwen3 pour alimenter vos solutions AI
Dans cette section, nous passerons par le processus de création d'applications d'IA à l'aide de QWEN3. Nous allons d'abord créer un agent de planificateur de voyage alimenté en AI utilisant le modèle, puis un bot de chiffon Q / A utilisant Langchain.
Condition préalable
Avant de construire des solutions d'IA du monde réel avec Qwen3, nous devons d'abord couvrir les conditions de base comme:
- Familiarité avec l'invite de commande ou le terminal et la possibilité de les exécuter via le terminal.
- Capacité à configurer des variables d'environnement.
- Python doit être installé: https://www.python.org/downloads/
- Connaissances sur les bases de Langchain: https://www.langchain.com/
Construire un agent d'IA à l'aide de Qwen3
Dans cette section, nous utiliserons Qwen3 pour créer un agent de voyage alimenté par l'IA qui donnera les principaux places de voyage pour la ville ou l'endroit que vous visitez. Nous permettons également à l'agent de rechercher sur Internet pour trouver des informations mises à jour et ajouter un outil qui permet la conversion de devises.
Étape 1: Configuration des bibliothèques et des outils
Tout d'abord, nous installerons et importerons les bibliothèques et outils nécessaires nécessaires pour créer l'agent.
! PIP installer Langchain Langchain-Community Openai Duckduckgo-Search De Langchain.chat_models importent Chatopenai à partir de Langchain.agents Import Tool de Langchain.tools Import DuckDuckgosearchrun de Langchain.agents Import Initialize_agent llm = chatopenai ( base_url = "https://openrouter.ai/api/v1", api_key = "your_api_key", Model = "Qwen / Qwen3-235B-A22B: gratuit" ) # Outil de recherche Web Search = DuckDuckGosearchRun () # Outil pour DestinationAgentnt Def Get_Destinations (destination): return search.run (f "Top 3 des spots touristiques dans {Destination}") DestinationTool = Tool ( name = "destination recommandeur", func = get_destinations, Description = "Finds les meilleurs endroits à visiter dans une ville" ) # Outil pour les devises def convert_usd_to_inr (requête): quantité = [float (s) pour s dans query.split () si s.replace ('.', '', 1) .isdigit ()] Si le montant: return f "{montant [0]} usd = {montant [0] * 83.2: .2f} inr" retourner "ne pouvait pas analyser le montant." CurrencyTool = Tool ( name = "Convertisseur de devises", func = convert_usd_to_inr, Description = "Converties USD en INR en fonction du taux statique" )
- Search_tool: DuckDuckGosearchrun () permet à l'agent d'utiliser la recherche Web pour obtenir des informations en temps réel sur les spots touristiques populaires.
- DestinationTool: applique la fonction get_destinations (), qui utilise l'outil de recherche pour obtenir les 3 meilleurs spots touristiques dans une ville donnée.
- CurrencyTool: utilise la fonction convert_usd_to_inr () pour convertir les prix de l'USD en INR. Vous pouvez modifier «INR» dans la fonction pour le convertir en une devise de votre choix.
Lire aussi: Construisez un chatbot assistant de voyage avec HuggingFace, Langchain et Mistralai
Étape 2: Création de l'agent
Maintenant que nous avons initialisé tous les outils, procédons à la création d'un agent qui utilisera les outils et nous donnera un plan pour le voyage.
outils = [DestinationTool, CurrencyTool] agent = initialize_agent ( outils = outils, llm = llm, agent_type = "zéro-shot-react-description", Verbose = vrai ) DEF TRIP_PLANNER (CITY, USD_BUDGET): dest = get_destinations (ville) INR_BUDGET = CONVERT_USD_TO_INR (F "{USD_BUDGET} USD à INR") Retour f "" "Voici votre plan de voyage: * Top Spots dans {City} *: {dest} *Budget*: {INR_BUDGET} Profitez de votre excursion d'une journée! "" "
- Initialize_agent: cette fonction crée un agent avec Langchain en utilisant une approche de réaction zéro-shot, qui permet à l'agent de comprendre les descriptions d'outils.
- Agent_Type: «Zero-shot-react-description» permet à l'agent LLM de décider de quel outil il doit utiliser dans une certaine situation sans connaissance préalable, en utilisant la description et l'entrée de l'outil.
- Verbose: Verbose permet la journalisation du processus de réflexion de l'agent, afin que nous puissions surveiller chaque décision que l'agent prend, y compris toutes les interactions et outils invoqués.
- TRIP_PLANNER: Il s'agit d'une fonction Python qui appelle manuellement des outils au lieu de compter sur l'agent. Il permet à l'utilisateur de sélectionner le meilleur outil pour un problème particulier.
Étape 3: Initialisation de l'agent
Dans cette section, nous initialiserons l'agent et observerons sa réponse.
# Initialiser l'agent City = "Delhi" USD_BUDGET = 8500 # Exécutez le planificateur multi-agents réponse = agent.run (f "Planifier une excursion d'une journée à {City} avec un budget de {USD_BUDGET} USD") à partir d'Ipython.Display Import Markdown, affichage Affichage (Markdown (réponse))
- Invocation de l'agent: agent.run () utilise l'intention de l'utilisateur via l'invite et prévoit le voyage.
Sortir
Construire un système de chiffon à l'aide de Qwen3
Dans cette section, nous créerons un bot de chiffon qui répond à toute requête dans le document d'entrée pertinent de la base de connaissances. Cela donne une réponse informative en utilisant QWEN / QWEN3-235B-A22B. Le système utiliserait également Langchain, pour produire des réponses précises et consacrées au contexte.
Étape 1: Configuration des bibliothèques et des outils
Tout d'abord, nous installerons et importerons les bibliothèques et outils nécessaires nécessaires pour créer le système de chiffon.
! Pip installer Langchain Langchain-Community Langchain-Core Openai Tiktoken Chromadb Transformateurs de phrase Duckduckgo-Search à partir de Langchain_community.Document_loaders Importer Textloader à partir de Langchain.Text_Splitter Importer le caractères De Langchain_community.VectorStores Import Chrom De Langchain.embeddings Import HuggingFaceMedddings De Langchain.Chains Import Retrievalqa De Langchain.chat_models importent Chatopenai # Chargez votre document Loader = Textloader ("/ Content / my_docs.txt") docs = loder.load ()
- Documents de chargement: la classe «Textloader» de Langchain charge le document comme un fichier PDF, TXT ou DOC qui sera utilisé pour la récupération Q / A. Ici, j'ai téléchargé my_docs.txt.
- Sélection de la configuration du vecteur: J'ai utilisé ChromAdB pour stocker et rechercher les intégres dans notre base de données vectorielle pour le processus Q / A.
Étape 2: Création des intérêts
Maintenant que nous avons chargé notre document, procédons à la création d'incorporation, ce qui aidera à atténuer le processus de récupération.
# Split en morceaux Splitter = CaractTextStSlitter (Chunk_Size = 300, Chunk_overlap = 50) Chunks = Splitter.Split_Documents (Docs) # ENCHED avec un modèle HuggingFace Embeddings = HuggingFaceMedDings (Model_Name = "All-Minilm-L6-V2") db = chroma.from_documents (morceaux, intégration = intégres) # Configuration Qwen LLM d'OpenRouter llm = chatopenai ( base_url = "https://openrouter.ai/api/v1", api_key = "your_api_key", Model = "Qwen / Qwen3-235B-A22B: gratuit" ) # Créer une chaîne de chiffon retriever = db.as_retriever (search_kwargs = {"k": 2}) rag_chain = retrievalqa.from_chain_type (llm = llm, retriever = retriever)
- Diffusion de documents: le personnageTextSsplitter () divise le texte en morceaux plus petits, ce qui aidera principalement en deux choses. Tout d'abord, il facilite le processus de récupération, et deuxièmement, il aide à conserver le contexte de la partie précédente via Chunk_overlap.
- Documents d'incorporation: les intégres convertissent le texte en vecteurs d'incorporation d'une dimension définie pour chaque jeton. Ici, nous avons utilisé Chunk_Size de 300, ce qui signifie que chaque mot / jeton sera converti en un vecteur de 300 dimensions. Maintenant, ce vecteur incorporera toutes les informations contextuelles de ce mot par rapport aux autres mots du morceau.
- Chaîne de chiffon: la chaîne de chiffon combine le chromadb avec le LLM pour former un chiffon. Cela nous permet d'obtenir des réponses contextuellement conscientes du document ainsi que du modèle.
Étape 3: Initialisation du système de chiffon
# Posez une question réponse = rag_chain.invoke ({"Query": "Comment puis-je utiliser Qwen avec MCP. Veuillez me donner un guide pas à pas avec les extraits de code nécessaires"}) affichage (Markdown (réponse ['résultat']))
- Exécution de la requête: La méthode RAG_CHAIN_INVOKE () enverra la requête de l'utilisateur au système RAG, qui récupère ensuite les morceaux pertinents de contexte de la boutique de documents (Vector DB) et génère une réponse contextuelle.
Sortir
Vous pouvez trouver le code complet ici.
Applications de Qwen3
Voici quelques autres applications de Qwen3 dans toutes les industries:
- Codage automatisé: Qwen3 peut générer, déboguer et fournir une documentation pour le code, ce qui aide les développeurs à résoudre les erreurs sans effort manuel. Son modèle de paramètres 22B excelle dans le codage, avec des performances comparables à des modèles comme Deepseek-R1, Gemini 2.5 Pro et O3-MinI d'OpenAI.
- Éducation et recherche: Qwen3 archite la haute précision en mathématiques, en physique et en résolution de problèmes de raisonnement logique. Il rivalise également avec le Gemini 2.5 Pro, tout en excelle avec des modèles tels que Openai O1, O3-Mini, Deepseek-R1 et Grok 3 Beta.
- Intégration d'outils basée sur l'agent: Qwen3 mène également dans les tâches d'agent AI en permettant l'utilisation d'outils externes, d'API et de MCP pour les flux de travail multi-étapes et multi-agents avec son modèle d'appel d'outils, ce qui simplifie encore l'interaction agentique.
- Tâches de raisonnement avancé: QWEN3 utilise une grande capacité de réflexion pour fournir des réponses optimales et précises. Le modèle utilise un raisonnement en chaîne de pensées pour des tâches complexes et un mode non pensant pour une vitesse optimisée.
Conclusion
Dans cet article, nous avons appris à construire des systèmes d'IA et de chiffon agentiques alimentés par QWEN3. Les performances élevées de QWEN3, le support multilingue et la capacité de raisonnement avancé en font un choix fort pour la récupération des connaissances et les tâches basées sur les agents. En intégrant Qwen3 dans des ragas et des pipelines agentiques, nous pouvons obtenir des réponses précises, respectueuses de contextes et lisses, ce qui en fait un concurrent solide pour les applications du monde réel pour les systèmes alimentés par l'IA.
Questions fréquemment posées
Q1. En quoi Qwen3 diffère-t-il des autres LLM pour le chiffon?A. Qwen3 a une capacité de raisonnement hybride qui lui permet d'apporter des changements dynamiques dans les réponses, ce qui lui permet d'optimiser les flux de travail de chiffon pour la récupération et l'analyse complexe.
Q2. Quels sont les outils nécessaires pour intégrer le chiffon?A. Il comprend principalement la base de données vectorielle, les modèles d'intégration, le flux de travail Langchain et une API pour accéder au modèle.
Q3. Qwen3 peut-il autoriser le chaînage d'outils multi-étapes dans le flux de travail de l'agent?Oui, avec les modèles d'appel d'outils intégrés Qwen-Agent, nous pouvons analyser et activer les opérations d'outils séquentielles comme la recherche Web, l'analyse des données et la génération de rapports.
Q4. Comment réduire la latence dans les réponses des agents QWEN3? A. On peut réduire la latence à bien des égards, certains d'entre eux sont:
1. Utilisation de modèles MOE comme QWEN3-30B-A3B, qui n'ont que 3 milliards de paramètres actifs.
2. En utilisant des inférences optimisées au GPU.
A. L'erreur commune comprend:
1. Échecs d'initialisation du serveur MCP, comme JSON Formatting et init.
2. Erreurs d'appariement de la réponse à l'outil.
3. Débordement de fenêtre de contexte.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Les cyberattaques évoluent. Il est révolu le temps des e-mails génériques de phishing. L'avenir de la cybercriminalité est hyper-personnalisé, tirant parti des données en ligne facilement disponibles et de l'IA pour rédiger des attaques très ciblées. Imaginez un escroc qui connaît votre travail, votre F

Dans son discours inaugural au Collège des Cardinals, Robert Francis Francis Prevost, né à Chicago, le pape Leo XIV, nouvellement élu, a discuté de l'influence de son homonyme, le pape Leo XIII, dont la papauté (1878-1903) a coïncidé avec l'aube de l'automobile et

Ce didacticiel montre comment intégrer votre modèle grand langage (LLM) avec des outils externes à l'aide du Protocole de contexte du modèle (MCP) et FastAPI. Nous allons créer une application Web simple à l'aide de Fastapi et la convertir en serveur MCP, permettant votre L

Explorez Dia-1.6b: un modèle révolutionnaire de texte vocale développé par deux étudiants de premier cycle sans financement zéro! Ce modèle de paramètres de 1,6 milliard génère une parole remarquablement réaliste, y compris des signaux non verbaux comme le rire et les éternuements. Ce guide d'article

Je suis entièrement d'accord. Mon succès est inextricablement lié aux conseils de mes mentors. Leurs idées, en particulier en ce qui concerne la gestion d'entreprise, ont formé le fondement de mes croyances et pratiques. Cette expérience souligne mon engagement envers le mentor

Équipement minier amélioré de l'IA L'environnement d'exploitation minière est dur et dangereux. Les systèmes d'intelligence artificielle aident à améliorer l'efficacité et la sécurité globales en supprimant les humains des environnements les plus dangereux et en améliorant les capacités humaines. L'intelligence artificielle est de plus en plus utilisée pour alimenter les camions, les exercices et les chargeurs autonomes utilisés dans les opérations minières. Ces véhicules alimentés par l'IA peuvent fonctionner avec précision dans des environnements dangereux, augmentant ainsi la sécurité et la productivité. Certaines entreprises ont développé des véhicules minières autonomes pour les opérations minières à grande échelle. L'équipement opérant dans des environnements difficiles nécessite un entretien continu. Cependant, la maintenance peut garder les appareils critiques hors ligne et consommer des ressources. Une maintenance plus précise signifie une augmentation de la disponibilité pour l'équipement coûteux et nécessaire et les économies de coûts importantes. Entiné à AI

Marc Benioff, PDG de Salesforce, prédit une révolution monumentale du lieu de travail motivé par les agents de l'IA, une transformation déjà en cours dans Salesforce et sa clientèle. Il envisage un passage des marchés traditionnels à un marché beaucoup plus large axé sur

La montée de l'IA dans les RH: naviguer sur une main-d'œuvre avec des collègues robots L'intégration de l'IA dans les ressources humaines (RH) n'est plus un concept futuriste; Cela devient rapidement la nouvelle réalité. Ce changement a un impact sur les professionnels des RH et les employés, Dem


Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Adaptateur de serveur SAP NetWeaver pour Eclipse
Intégrez Eclipse au serveur d'applications SAP NetWeaver.

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

Version crackée d'EditPlus en chinois
Petite taille, coloration syntaxique, ne prend pas en charge la fonction d'invite de code

MinGW - GNU minimaliste pour Windows
Ce projet est en cours de migration vers osdn.net/projects/mingw, vous pouvez continuer à nous suivre là-bas. MinGW : un port Windows natif de GNU Compiler Collection (GCC), des bibliothèques d'importation et des fichiers d'en-tête librement distribuables pour la création d'applications Windows natives ; inclut des extensions du runtime MSVC pour prendre en charge la fonctionnalité C99. Tous les logiciels MinGW peuvent fonctionner sur les plates-formes Windows 64 bits.

ZendStudio 13.5.1 Mac
Puissant environnement de développement intégré PHP
