recherche
MaisonPériphériques technologiquesIAJamba 1.5: avec l'architecture hybride de transformateur mamba

Jamba 1.5: un puissant modèle de langue hybride pour le traitement à long contexte

Jamba 1.5, un modèle de grande langue de pointe des laboratoires AI21, possède des capacités impressionnantes pour gérer des contextes de texte étendus. Disponible en deux versions - Jamba 1,5 grand (94 milliards de paramètres) et Jamba 1.5 Mini (12 milliards de paramètres) - il exploite une architecture hybride unique combinant le modèle d'espace d'état structuré Mamba (SSM) avec l'architecture transformateur traditionnelle. Cette approche innovante permet le traitement d'une fenêtre de contexte efficace de 256K sans précédent, un saut significatif pour les modèles open-source.

Jamba 1.5: avec l'architecture hybride Mamba-Transformateur

Caractéristiques et capacités clés:

  • Fenêtre de contexte massive: traite jusqu'à 256k jetons, idéal pour des documents longs et des tâches complexes.
  • Architecture hybride: combine les forces des modèles Transformer et Mamba pour une efficacité et des performances optimales.
  • Quantification efficace: utilise une quantification des experts8 pour une empreinte de la mémoire réduite et un traitement plus rapide.
  • Support multilingue: fonctionne efficacement dans neuf langues: anglais, espagnol, français, portugais, italien, néerlandais, allemand, arabe et hébreu.
  • Applications polyvalentes: Convient à un large éventail de tâches PNL, y compris la réponse aux questions, le résumé, la génération de texte et la classification.
  • Déploiement accessible: Disponible via l'API Studio d'Ai21, les étreintes et les partenaires cloud.

Détails architecturaux:

Jamba 1.5: avec l'architecture hybride de transformateur mamba

Aspect Détails
Architecture de base Architecture de transformateur hybride-mamba avec un module de mélange d'Experts (MOE)
Variantes du modèle JAMBA-1,5-GARD (94B Paramètres actifs, 398b au total) et Jamba-1,5-MinI (paramètres actifs 12b, 52b au total)
Composition de la couche 9 blocs, chacun avec 8 couches; Ratio 1: 7 du transformateur en couches mamba
Mélange d'experts (MOE) 16 experts, sélectionnant le top 2 par jeton
Dimensions cachées 8192
Têtes d'attention 64 têtes de requête, 8 têtes de valeur clé
Durée du contexte Jusqu'à 256K jetons
Technique de quantification Expertsnt8 pour les couches MLP et MLP
Fonction d'activation Activations de transformateur et de mamba intégrés
Efficacité Optimisé pour un débit élevé et une faible latence sur des GPU 8x80 Go

Accéder et utiliser Jamba 1.5:

Jamba 1.5 est facilement accessible via l'API Studio d'Ai21 et le visage étreint. Le modèle peut être affiné pour des domaines spécifiques afin d'améliorer encore les performances. Un exemple Python utilisant l'API AI21 est fourni ci-dessous:

Exemple de Python:

 à partir de l'importation AI21 AI21Client
à partir de AI21.Models.Chat Importer ChatMessage

Messages = [ChatMessage (content = "Qu'est-ce qu'un tokenizer dans 2-3 lignes?", Role = "User")]
client = AI21Client (api_key = '') # Remplacez '' par votre clé API
réponse = client.chat.completions.create (
    messages = messages,
    Model = "Jamba-1,5-MinI",
    Stream = vrai
)
pour le morceau en réponse:
    print (chunk.choices [0] .delta.content, end = "") 

Jamba 1.5: avec l'architecture hybride de transformateur mambaJamba 1.5: avec l'architecture hybride de transformateur mambaJamba 1.5: avec l'architecture hybride de transformateur mamba

Conclusion:

Jamba 1.5 représente un progrès significatif dans les modèles de grande langue, offrant un mélange convaincant de puissance et d'efficacité. Sa capacité à gérer des contextes exceptionnellement longs, associés à ses applications polyvalentes et à ses options de déploiement accessibles, en fait un outil précieux pour une large gamme de tâches PNL.

Questions fréquemment posées (FAQ): (similaire à l'original, mais reformulé pour la concision)

  • Q1: Qu'est-ce que Jamba 1.5? R: Un modèle de langue de transformateur hybride en grande langue avec des paramètres 94b (grands) ou 12b (mini), optimisé pour l'instruction suivant et traitement à long contexte.
  • Q2: Comment Jamba 1.5 gère-t-il efficacement les contextes longs? R: Grâce à son architecture hybride et à sa quantification d'experts8, permettant une fenêtre de contexte de jeton 256K avec une utilisation réduite de la mémoire.
  • Q3: Qu'est-ce que la quantification des experts8? R: Une technique de compression utilisant la précision INT8 dans les couches MOE et MLP pour une efficacité améliorée.
  • Q4: Jamba 1.5 est-il accessible au public? R: Oui, sous la licence de modèle Open Jamba, accessible via des câlins.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Un guide complet de l'extrapolationUn guide complet de l'extrapolationApr 15, 2025 am 11:38 AM

Introduction Supposons qu'il y ait un fermier qui observe quotidiennement les progrès des cultures dans plusieurs semaines. Il regarde les taux de croissance et commence à réfléchir à la hauteur de ses plantes de plus en plus dans quelques semaines. De th

La montée de l'IA douce et ce que cela signifie pour les entreprises aujourd'huiLa montée de l'IA douce et ce que cela signifie pour les entreprises aujourd'huiApr 15, 2025 am 11:36 AM

L'IA souple - définie comme des systèmes d'IA conçus pour effectuer des tâches spécifiques et étroites en utilisant un raisonnement approximatif, une reconnaissance de motifs et une prise de décision flexible - cherche à imiter la pensée humaine en adoptant l'ambiguïté. Mais qu'est-ce que cela signifie pour les activités

Évolution des cadres de sécurité pour la frontière AIÉvolution des cadres de sécurité pour la frontière AIApr 15, 2025 am 11:34 AM

La réponse est claire - tout comme le cloud computing nécessitait un changement vers des outils de sécurité natifs du cloud, l'IA exige une nouvelle race de solutions de sécurité conçues spécifiquement pour les besoins uniques de l'IA. La montée des leçons de cloud computing et de sécurité apprises Dans

3 façons dont l'IA générative amplifie les entrepreneurs: méfiez-vous des moyennes!3 façons dont l'IA générative amplifie les entrepreneurs: méfiez-vous des moyennes!Apr 15, 2025 am 11:33 AM

Entrepreneurs et utilisant l'IA et l'IA génératrice pour améliorer leurs entreprises. Dans le même temps, il est important de se souvenir de l'IA génératrice, comme toutes les technologies, est un amplificateur - ce qui rend le grand grand et le médiocre, pire. Une étude rigoureuse en 2024 o

Nouveau cours court sur les modèles d'intégration par Andrew NgNouveau cours court sur les modèles d'intégration par Andrew NgApr 15, 2025 am 11:32 AM

Déverrouiller la puissance des modèles d'intégration: une plongée profonde dans le nouveau cours d'Andrew Ng Imaginez un avenir où les machines comprennent et répondent à vos questions avec une précision parfaite. Ce n'est pas de la science-fiction; Grâce aux progrès de l'IA, cela devient un R

L'hallucination dans les modèles de grande langue (LLMS) est-elle inévitable?L'hallucination dans les modèles de grande langue (LLMS) est-elle inévitable?Apr 15, 2025 am 11:31 AM

Modèles de grande langue (LLM) et le problème inévitable des hallucinations Vous avez probablement utilisé des modèles d'IA comme Chatgpt, Claude et Gemini. Ce sont tous des exemples de modèles de grande langue (LLMS), de puissants systèmes d'IA formés sur des ensembles de données de texte massifs pour

Le problème de 60% - comment la recherche AI ​​vide votre traficLe problème de 60% - comment la recherche AI ​​vide votre traficApr 15, 2025 am 11:28 AM

Des recherches récentes ont montré que les aperçus de l'IA peuvent entraîner une baisse énorme de 15 à 64% du trafic organique, basé sur l'industrie et le type de recherche. Ce changement radical fait que les spécialistes du marketing reconsidèrent toute leur stratégie concernant la visibilité numérique. Le nouveau

MIT Media Lab pour mettre de l'épanouissement humain au cœur de la R&D de l'IAMIT Media Lab pour mettre de l'épanouissement humain au cœur de la R&D de l'IAApr 15, 2025 am 11:26 AM

Un récent rapport de l'imagination du Future Center de l'Université d'Elon a interrogé près de 300 experts en technologie mondiale. Le rapport qui en résulte, «Être humain en 2035», a conclu que la plupart concernaient l'adoption d'approfondissement des systèmes d'IA sur T

See all articles

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
4 Il y a quelques semainesBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
4 Il y a quelques semainesBy尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
4 Il y a quelques semainesBy尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
1 Il y a quelques moisBy尊渡假赌尊渡假赌尊渡假赌

Outils chauds

VSCode Windows 64 bits Télécharger

VSCode Windows 64 bits Télécharger

Un éditeur IDE gratuit et puissant lancé par Microsoft

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Dreamweaver Mac

Dreamweaver Mac

Outils de développement Web visuel

mPDF

mPDF

mPDF est une bibliothèque PHP qui peut générer des fichiers PDF à partir de HTML encodé en UTF-8. L'auteur original, Ian Back, a écrit mPDF pour générer des fichiers PDF « à la volée » depuis son site Web et gérer différentes langues. Il est plus lent et produit des fichiers plus volumineux lors de l'utilisation de polices Unicode que les scripts originaux comme HTML2FPDF, mais prend en charge les styles CSS, etc. et présente de nombreuses améliorations. Prend en charge presque toutes les langues, y compris RTL (arabe et hébreu) ​​et CJK (chinois, japonais et coréen). Prend en charge les éléments imbriqués au niveau du bloc (tels que P, DIV),

Télécharger la version Mac de l'éditeur Atom

Télécharger la version Mac de l'éditeur Atom

L'éditeur open source le plus populaire