Déployer le modèle R1 Deepseek sur Databricks: un guide étape par étape
DATABRICKS, une plate-forme d'ingénierie des données populaire, est de plus en plus utilisée pour l'IA et les tâches d'apprentissage automatique. Ce tutoriel vous guide dans le déploiement du modèle R1 Deepseek distribué sur Databricks, un puissant modèle de grande langue souvent préféré pour le déploiement sur site. Cela évite d'envoyer des données aux serveurs externes. Pour une plongée plus profonde dans les fonctionnalités et les comparaisons de Deepseek R1, consultez le Deepseek-R1: fonctionnalités, comparaison, modèles distillés et plus de blog.
Ce guide couvre la configuration du compte, l'enregistrement du modèle à l'aide de l'interface utilisateur et l'accès via le terrain de jeu et les commandes Curl locales. Nouveau sur Databricks? Le cours d'introduction au Databricks fournit un aperçu complet de la plate-forme Databricks Lakehouse et de ses capacités de gestion des données. Pour une compréhension plus approfondie de la gestion des données au sein de Databricks, considérez la gestion des données dans le cours de Databricks.
Enregistrement du modèle R1 Deepseek
- Lancez un ordinateur portable: Après avoir créé votre espace de travail Databricks, cliquez sur "Nouveau" et sélectionnez un ordinateur portable.
- Installez les packages: Installez les bibliothèques Python nécessaires:
%%capture !pip install torch transformers mlflow accelerate torchvision %restart_python
- Modèle de chargement et tokenzer: Chargez le modèle R1 Deepseek et le jeton de la face étreinte:
import pandas as pd import mlflow import mlflow.transformers import torch from mlflow.models.signature import infer_signature from transformers import AutoModelForCausalLM, AutoTokenizer, AutoConfig, pipeline model_name = "deepseek-ai/DeepSeek-R1-Distill-Llama-8B" tokenizer = AutoTokenizer.from_pretrained(model_name) config = AutoConfig.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained(model_name, config=config, torch_dtype=torch.float16)
- Testez le modèle: Testez avec un échantillon d'invite et générez une signature pour l'enregistrement du modèle:
text_generator = pipeline("text-generation", model=model, tokenizer=tokenizer) example_prompt = "How does a computer work?" example_inputs = pd.DataFrame({"inputs": [example_prompt]}) example_outputs = text_generator(example_prompt, max_length=200) signature = infer_signature(example_inputs, example_outputs) print(example_outputs)
Sortie attendue (peut varier légèrement):
<code>[{'generated_text': "How does a computer work? What is the computer? What is the computer used for? What is the computer used for in real life?\n\nI need to answer this question, but I need to do it step by step. I need to start with the very basic level and build up from there. I need to make sure I understand each concept before moving on. I need to use a lot of examples to explain each idea. I need to write my thoughts as if I'm explaining them to someone else, but I need to make sure I understand how to structure the answer properly.\n\nOkay, let's start with the basic level. What is a computer? It's an electronic device, right? And it has a central processing unit (CPU) that does the processing. But I think the central processing unit is more efficient, so maybe it's the CPU. Then, it has memory and storage. I remember that memory is like RAM and storage is like ROM. But wait, I think"}]</code>
- Environnement conda: Définir un environnement conda:
conda_env = { "name": "mlflow-env", "channels": ["defaults", "conda-forge"], "dependencies": [ "python=3.11", "pip", {"pip": ["mlflow", "transformers", "accelerate", "torch", "torchvision"]} ] }
- Enregistrez le modèle: Enregistrez le modèle à l'aide de
mlflow.transformers.log_model
:
with mlflow.start_run() as run: mlflow.transformers.log_model( transformers_model=text_generator, artifact_path="deepseek_model", signature=signature, input_example=example_inputs, registered_model_name="deepseek_r1_llama_8b", conda_env=conda_env )
Déployage de profondeur R1
-
Accédez à des modèles: Dans le tableau de bord Databricks, accédez à l'onglet "Modèles".
-
Servir le modèle: Sélectionnez votre modèle et cliquez sur "Servir ce modèle."
- Configurer le point de terminaison: Nommez votre point de terminaison, choisissez des options de calcul, définissez la concurrence et cliquez sur "Créer".
Pour le réglage fin sur un ensemble de données personnalisé, reportez-vous au tutoriel de profondeur R1 à réglage fin.
Accès au modèle déployé
- Databricks Playground: Testez directement dans le terrain de jeu de Databricks.
- Commande Curl: Générez une clé API Databricks (Paramètres & gt; développeur), définissez-la en tant que variable d'environnement (
$DATABRICKS_TOKEN
), et utilisez Curl:
%%capture !pip install torch transformers mlflow accelerate torchvision %restart_python
Pour plus d'informations sur Deepseek R1 contre V3, consultez le blog Deepseek R1 vs V3. Nouveau sur LLMS? L'introduction à LLMS in Python Course est un excellent point de départ. N'oubliez pas que bien que le déploiement du processeur soit possible, il peut être plus lent.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Meta s'est associé à des partenaires tels que NVIDIA, IBM et Dell pour étendre l'intégration de déploiement de niveau d'entreprise de la pile de lama. En termes de sécurité, Meta a lancé de nouveaux outils tels que Llama Guard 4, Llafirewall et Cyberseceval 4, et a lancé le programme Llama Defenders pour améliorer la sécurité de l'IA. En outre, Meta a distribué 1,5 million de dollars de subventions d'impact LLAMA à 10 institutions mondiales, y compris des startups travaillant pour améliorer les services publics, les soins de santé et l'éducation. La nouvelle application Meta Ai propulsée par Llama 4, conçue comme Meta Ai

Joi AI, une entreprise pionnière de l'interaction humaine-AI, a introduit le terme "Ai-Lations" pour décrire ces relations en évolution. Jaime Bronstein, thérapeute relationnelle chez JOI AI, précise que ceux-ci ne sont pas censés remplacer l'homme C humain

Les fraudes en ligne et les attaques de bot posent un défi important pour les entreprises. Les détaillants combattent des bots de thésaurisation, les banques de banques se battaient les prises de contrôle et les plateformes de médias sociaux ont du mal avec les imitateurs. La montée de l'IA exacerbe ce problème, rendez-vous

Les agents de l'IA sont sur le point de révolutionner le marketing, dépassant potentiellement l'impact des changements technologiques antérieurs. Ces agents, représentant une progression importante de l'IA générative, ne traitent pas seulement des informations comme Chatgpt, mais prennent également Actio

L'impact de l'IA sur les décisions cruciales du match NBA 4 Deux matchs pivots du match 4 de la NBA ont présenté le rôle révolutionnaire de l'IA dans la officier. Dans le premier, Nikola Jokic de Denver, à trois points, a conduit à une ruelle de dernière seconde d'Aaron Gordon. Haw de Sony

Traditionnellement, l'expansion de l'expertise en médecine régénérative a exigé des voyages approfondis, une formation pratique et des années de mentorat. Maintenant, l'IA transforme ce paysage, surmontant les limites géographiques et accélèrent les progrès à travers EN

Intel travaille à retourner son processus de fabrication à la position principale, tout en essayant d'attirer des clients Fab Semiconductor pour faire des puces à ses Fabs. À cette fin, Intel doit renforcer plus de confiance dans l'industrie, non seulement pour prouver la compétitivité de ses processus, mais aussi pour démontrer que les partenaires peuvent fabriquer des puces dans un flux de travail familier et mature, cohérent et très fiable. Tout ce que j'entends aujourd'hui me fait croire qu'Intel se dirige vers cet objectif. Le discours d'ouverture du nouveau PDG Tan Libai a lancé la journée. Tan Libai est simple et concis. Il décrit plusieurs défis dans les services de fonderie d'Intel et les mesures que les entreprises ont prises pour relever ces défis et planifier un itinéraire réussi pour les services de fonderie d'Intel à l'avenir. Tan Libai a parlé du processus de mise en œuvre du service OEM d'Intel pour rendre les clients davantage

Répondant aux préoccupations croissantes concernant les risques d'IA, Chaucer Group, une entreprise mondiale de réassurance de spécialité, et l'AI d'Armilla ont uni leurs forces pour introduire un nouveau produit d'assurance responsabilité civile (TPL). Cette politique sauvegarde les entreprises contre


Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

Video Face Swap
Échangez les visages dans n'importe quelle vidéo sans effort grâce à notre outil d'échange de visage AI entièrement gratuit !

Article chaud

Outils chauds

Dreamweaver CS6
Outils de développement Web visuel

mPDF
mPDF est une bibliothèque PHP qui peut générer des fichiers PDF à partir de HTML encodé en UTF-8. L'auteur original, Ian Back, a écrit mPDF pour générer des fichiers PDF « à la volée » depuis son site Web et gérer différentes langues. Il est plus lent et produit des fichiers plus volumineux lors de l'utilisation de polices Unicode que les scripts originaux comme HTML2FPDF, mais prend en charge les styles CSS, etc. et présente de nombreuses améliorations. Prend en charge presque toutes les langues, y compris RTL (arabe et hébreu) et CJK (chinois, japonais et coréen). Prend en charge les éléments imbriqués au niveau du bloc (tels que P, DIV),

Adaptateur de serveur SAP NetWeaver pour Eclipse
Intégrez Eclipse au serveur d'applications SAP NetWeaver.

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

MinGW - GNU minimaliste pour Windows
Ce projet est en cours de migration vers osdn.net/projects/mingw, vous pouvez continuer à nous suivre là-bas. MinGW : un port Windows natif de GNU Compiler Collection (GCC), des bibliothèques d'importation et des fichiers d'en-tête librement distribuables pour la création d'applications Windows natives ; inclut des extensions du runtime MSVC pour prendre en charge la fonctionnalité C99. Tous les logiciels MinGW peuvent fonctionner sur les plates-formes Windows 64 bits.
