Maison >Périphériques technologiques >IA >Comment exécuter des modèles Deepseek localement en 5 minutes?
Deepseek a pris d'assaut la communauté de l'IA, avec 68 modèles disponibles sur le visage étreint aujourd'hui. Cette famille de modèles open source est accessible en étreignant le visage ou le olllaa, tandis que Deepseek-R1 et Deepseek-V3 peut être directement utilisé pour l'inférence via Deepseek Chat . Dans ce blog, nous explorerons la gamme de modèles de Deepseek et vous guiderons dans l'exécution de ces modèles en utilisant Google Colab et Olllama.
Deepseek propose une gamme diversifiée de modèles, chacun optimisé pour différentes tâches. Vous trouverez ci-dessous une ventilation de quel modèle convient le mieux à vos besoins:
LIRE AUSSI: Création d'une application AI avec Deepseek-V3
Pour exécuter des modèles Deepseek sur votre machine locale, vous devez installer Olllama:
curl -fsSL https://ollama.com/install.sh | sh
Une fois Olllama installé, ouvrez votre interface de ligne de commande (CLI) et tirez le modèle:
ollama pull deepseek-r1:1.5b
Vous pouvez explorer d'autres modèles Deepseek disponibles sur Ollama ici: recherche de modèle Olllama.
Cette étape peut prendre un certain temps, alors attendez que le téléchargement se termine.
ollama pull deepseek-r1:1.5b pulling manifest pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB pulling 369ca498f347... 100% ▕████████████████▏ 387 B pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB pulling f4d24e9138dd... 100% ▕████████████████▏ 148 B pulling a85fe2a2e58e... 100% ▕████████████████▏ 487 B verifying sha256 digest writing manifest success
Une fois le modèle téléchargé, vous pouvez l'exécuter à l'aide de la commande:
curl -fsSL https://ollama.com/install.sh | sh
Le modèle est désormais disponible sur la machine locale et répond à mes questions sans aucun hoquet.
Dans cette section, nous allons essayer Deepseek-Janus-Pro-1b à l'aide de Google Colab. Avant de commencer, assurez-vous de définir le GPU T4 pour des performances optimales.
Exécutez la commande suivante dans un cahier Colab:
ollama pull deepseek-r1:1.5b
? Explorez plus de modèles Deepseek sur GitHub: Repository de github Deepseek AI
Accédez au répertoire cloné et installez les packages requis:
ollama pull deepseek-r1:1.5b pulling manifest pulling aabd4debf0c8... 100% ▕████████████████▏ 1.1 GB pulling 369ca498f347... 100% ▕████████████████▏ 387 B pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB pulling f4d24e9138dd... 100% ▕████████████████▏ 148 B pulling a85fe2a2e58e... 100% ▕████████████████▏ 487 B verifying sha256 digest writing manifest success
Maintenant, nous importerons les bibliothèques nécessaires et chargerons le modèle sur cuda (gpu) :
ollama run deepseek-r1:1.5b
Maintenant, passons une image au modèle et générant une réponse.
? Image d'entrée
!git clone https://github.com/deepseek-ai/Janus.git
%cd Janus !pip install -e . !pip install flash-attn
Sortie:
& lt; | utilisateur | & gt ;:
Qu'y a-t-il dans l'image?
& lt; | Assistant | & gt;: L'image dispose d'une section intitulée «Derniers articles» en mettant l'accent sur un article de blog. Le billet de blog discute de «Comment accéder à Deepseek Janus Pro 7b?» et met en évidence ses capacités d'IA multimodales dans le raisonnement, le texte à l'image et le suivi des instructions. L'image comprend également le logo Deepseek (un dauphin) et un motif hexagonal en arrière-plan.
Nous pouvons voir que le modèle est capable de lire le texte dans l'image et également de repérer le logo de Deepseek dans l'image. Impressions initiales, elle fonctionne bien.
Lisez également: comment accéder à Deepseek Janus Pro 7b?
Deepseek émerge rapidement comme une force puissante dans l'IA, offrant un large éventail de modèles pour les développeurs, les chercheurs et les utilisateurs généraux. Alors qu'il rivalise avec des géants de l'industrie comme Openai et Gemini, ses modèles rentables et hautes performances devraient gagner une adoption généralisée.
Les applications des modèles Deepseek sont illimitées, allant de l'assistance de codage au raisonnement avancé et aux capacités multimodales. Avec l'exécution locale transparente via Olllama et les options d'inférence basées sur le cloud, Deepseek est sur le point de devenir un changement de jeu dans la recherche et le développement de l'IA.
Si vous avez des questions ou des problèmes face, n'hésitez pas à demander dans la section des commentaires!
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!