Maison >Périphériques technologiques >IA >Tutoriel Torchchat de Pytorch: configuration locale avec Python
Torchchat: apporter une grande inférence du modèle de langue à votre machine locale
Les modèles de langues importants (LLMS) transforment la technologie, mais les déployer sur des appareils personnels a été difficile en raison des limitations matérielles. Le nouveau framework Torchchat de Pytorch aborde cela, permettant une exécution efficace de LLM sur diverses plates-formes matérielles, des ordinateurs portables aux appareils mobiles. Cet article fournit un guide pratique pour configurer et utiliser Torchchat localement avec Python.
Pytorch, le cadre d'apprentissage automatique Open-source de Facebook's AI Research Lab, sous-tend Torchchat. Sa polyvalence s'étend à la vision par ordinateur et au traitement du langage naturel.
Caractéristiques clés de Torchchat:
Torchchat offre quatre fonctionnalités de base:
lm_eval
, crucial pour la recherche et l'analyse comparative. Pourquoi exécuter LLMS localement?
L'exécution LLM locale offre plusieurs avantages:
Configuration locale avec Python: un guide étape par étape
Clone Le référentiel: Clone Le référentiel Torchchat à l'aide de Git:
git clone git@github.com:pytorch/torchchat.git
Alternativement, téléchargez directement à partir de l'interface GitHub.
Installation: En supposant que Python 3.10 est installé, créez un environnement virtuel:
python -m venv .venv source .venv/bin/activate
Installez les dépendances à l'aide du script fourni:
./install_requirements.sh
Vérifiez l'installation:
git clone git@github.com:pytorch/torchchat.git
en utilisant Torchchat:
Listing des modèles pris en charge:
python -m venv .venv source .venv/bin/activate
Téléchargement d'un modèle: Installez le Face Cli étreint (pip install huggingface_hub
), créez un compte de visage étreint, générez un jeton d'accès et connectez-vous (huggingface-cli login
). Téléchargez un modèle (par exemple, stories15M
):
./install_requirements.sh
exécuter un modèle: Générer du texte:
python torchchat.py --help
ou utilisez le mode de chat:
python torchchat.py list
Demander l'accès: pour les modèles nécessitant un accès (par exemple, llama3
), suivez les instructions du message d'erreur.
Utilisation avancée: performances de réglage fin
--dtype
): Ajuster le type de données pour les compromis de vitesse / précision (par exemple, --dtype fast
). --compile
): Améliore la vitesse d'inférence (mais augmente le temps de démarrage). --quantize
): réduit la taille du modèle et améliore la vitesse à l'aide d'un fichier de configuration JSON. --device
): Spécifiez le périphérique (par exemple, --device cuda
). Conclusion
Torchchat simplifie l'exécution LLM locale, ce qui rend l'IA avancé plus accessible. Ce guide fournit une base pour explorer ses capacités. Une enquête plus approfondie sur les caractéristiques de Torchchat est fortement recommandée.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!