Maison >Périphériques technologiques >IA >Comment puis-je exécuter le terminal dans Google Colab?
Google Colab: un puissant environnement de développement d'IA avec Olllama et Langchain
Google Colab, un environnement de cahier Jupyter basé sur le cloud, simplifie le codage et l'exécution Python, éliminant le besoin d'une configuration de l'environnement local. Cela le rend idéal pour la science des données, l'apprentissage automatique et les scripts généraux Python. Cependant, l'exécution directe de la commande shell est parfois nécessaire pour des tâches telles que l'installation de packages ou la gestion des fichiers. Alors que Colab offre une exécution de commande de shell in-notebook, un environnement de terminal complet offre une plus grande flexibilité. Ce guide démontre l'accès au terminal Colab, l'installation et l'utilisation d'Olllama pour accéder aux modèles d'apprentissage automatique et effectuer l'inférence à l'aide de Langchain.
pour accéder à la borne Colab, installez et activez l'extension colab-xterm
. Exécutez ces commandes dans une cellule de code Colab:
<code>!pip install colab-xterm %load_ext colabxterm %xterm</code>
Cela lance une fenêtre de terminal dans votre session Colab. Installez Olllama via le terminal à l'aide de la commande Linux:
curl -fsSL https://ollama.com/install.sh | sh
Maintenant, téléchargez et préparez des modèles d'apprentissage automatique. Utilisez le terminal pour extraire des modèles comme deepseek-r1:7b
ou llama3
avec olllama:
ollama pull deepseek-r1:7b
ou
ollama pull llama3
Installez les bibliothèques Python requises pour l'interaction modèle dans une nouvelle cellule de code Colab:
!pip install langchain langchain-core langchain-community
Ces bibliothèques facilitent l'interaction structurée du modèle de langue grande.
Avec les dépendances installées, utilisez Langchain pour interagir avec votre modèle. Ajoutez ce code à une cellule Colab:
from langchain_community.llms import Ollama # Load the model llm = Ollama(model="llama3") # Make a request response = llm.invoke("Tell me about Analytics Vidhya.") print(response)
Cela charge le modèle llama3
et génère une réponse à l'invite.
Ce guide démontre le tir de la terminale de Colab pour une fonctionnalité améliorée, permettant une installation de modèle transparente avec Olllama et une interaction via Langchain. Cette approche transforme Colab en une plate-forme de développement d'IA polyvalente, idéale pour expérimenter des modèles avancés et rationaliser les flux de travail d'apprentissage automatique.
Q1: Comment accéder au terminal Colab?
a1: installez colab-xterm
en utilisant !pip install colab-xterm
et lancez-le avec %xterm
dans une cellule de code Colab.
Q2: Comment puis-je installer et utiliser Olllama dans Colab?
A2: Installez Olllama dans le terminal en utilisant curl -fsSL https://ollama.com/install.sh | sh
et tracez les modèles avec ollama pull <model_name></model_name>
.
Q3: Puis-je exécuter l'inférence avec Langchain et Ollama sur n'importe quel modèle?
A3: Oui, après avoir installé Langchain et téléchargé un modèle via Olllama, vous pouvez l'utiliser pour l'inférence avec llm.invoke("your prompt")
.
Q4: Puis-je utiliser Google Colab pour l'apprentissage en profondeur avec de grands ensembles de données?
A4: Oui, Colab prend en charge l'apprentissage en profondeur et les grands ensembles de données, en particulier avec les GPU / TPU. Colab Pro fournit des ressources accrues pour gérer des modèles et des ensembles de données plus grands.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!