


Vous avez toujours voulu déployer un modèle Hugging Face sur AWS Lambda, mais vous êtes resté coincé avec la construction de conteneurs, les démarrages à froid et la mise en cache des modèles ? Voici comment le faire en moins de 5 minutes avec Scaffoldly.
TL;DR
-
Créez un système de fichiers EFS nommé .cache dans AWS :
- Accédez à la console AWS EFS
- Cliquez sur "Créer un système de fichiers"
- Nommez-le .cache
- Sélectionnez n'importe quel VPC (Scaffoldly s'occupera du reste !)
-
Créez votre application à partir de la branche python-huggingface :
npx scaffoldly create app --template python-huggingface
-
Déployez-le :
cd my-app && npx scaffoldly deploy
C'est ça ! Vous obtiendrez un modèle Hugging Face exécuté sur Lambda (en utilisant openai-community/gpt2 comme exemple), avec une mise en cache et un déploiement de conteneurs appropriés.
Conseil de pro : Pour la configuration EFS, vous pouvez la personnaliser jusqu'à un seul AZ en mode Burstable pour encore plus d'économies. Scaffoldly fera correspondre la fonction Lambda au VPC, aux sous-réseaux et au groupe de sécurité de l'EFS.
✨ Découvrez la démo en direct et l'exemple de code !
Le problème
Le déploiement de modèles ML sur AWS Lambda implique traditionnellement :
- Création et gestion de conteneurs Docker
- Déterminer la mise en cache et le stockage des modèles
- Gérer les limites de taille de Lambda
- Gestion des démarrages à froid
- Configuration des points de terminaison de l'API
C'est beaucoup de travail d'infrastructure quand on veut juste servir un modèle !
La solution
Scaffoldly gère toute cette complexité avec un simple fichier de configuration. Voici une application complète qui sert un modèle Hugging Face (en utilisant openai-community/gpt2 comme exemple) :
# app.py from flask import Flask from transformers import pipeline app = Flask(__name__) generator = pipeline('text-generation', model='openai-community/gpt2') @app.route("/") def hello_world(): output = generator("Hello, world,") return output[0]['generated_text']
// requirements.txt Flask ~= 3.0 gunicorn ~= 23.0 torch ~= 2.5 numpy ~= 2.1 transformers ~= 4.46 huggingface_hub[cli] ~= 0.26
// scaffoldly.json { "name": "python-huggingface", "runtime": "python:3.12", "handler": "localhost:8000", "files": ["app.py"], "packages": ["pip:requirements.txt"], "resources": ["arn::elasticfilesystem:::file-system/.cache"], "schedules": { "@immediately": "huggingface-cli download openai-community/gpt2" }, "scripts": { "start": "gunicorn app:app" }, "memorySize": 1024 }
Comment ça marche
Scaffoldly fait des choses intelligentes dans les coulisses :
-
Construction de conteneurs intelligents :
- Crée automatiquement un conteneur Docker optimisé pour Lambda
- Gère toutes les dépendances Python, y compris PyTorch
- Pousse vers ECR sans que vous écriviez de commandes Docker
-
Gestion efficace des modèles :
- Utilise Amazon EFS pour mettre en cache les fichiers de modèle
- Pré-télécharge les modèles après le déploiement pour des démarrages à froid plus rapides
- Monte automatiquement le cache dans Lambda
-
Configuration prête pour Lambda :
- Rus up un bon serveur WSGI (gunicorn)
- Crée une URL de fonction Lambda publique
- Demandes d'URL de fonction proxy à gunicorn
- Gère les rôles et les autorisations IAM
À quoi ressemble le déploiement
Voici le résultat d'une commande npx scaffoldly déployer que j'ai exécutée sur cet exemple :
Performances et coûts réels
✅ Coûts : ~0,20 $/jour pour AWS Lambda, ECR et EFS
✅ Démarrage à froid : ~20s pour première demande (chargement du modèle)
✅ Demandes chaleureuses : 5 à 20 s (inférence basée sur le CPU)
Bien que cette configuration utilise l'inférence CPU (qui est plus lente que le GPU), il s'agit d'un moyen incroyablement rentable d'expérimenter des modèles ML ou de servir des points de terminaison à faible trafic.
Personnalisation pour d'autres modèles
Vous souhaitez utiliser un modèle différent ? Mettez simplement à jour deux fichiers :
- Changez le modèle dans app.py :
npx scaffoldly create app --template python-huggingface
- Mettez à jour le téléchargement dans scaffoldly.json :
cd my-app && npx scaffoldly deploy
Utilisation de modèles privés ou fermés
Scaffoldly prend en charge les modèles privés et fermés via la variable d'environnement HF_TOKEN. Vous pouvez ajouter votre jeton Hugging Face de plusieurs manières :
- Développement local : Ajoutez à votre profil shell (.bashrc, .zprofile, etc.) :
# app.py from flask import Flask from transformers import pipeline app = Flask(__name__) generator = pipeline('text-generation', model='openai-community/gpt2') @app.route("/") def hello_world(): output = generator("Hello, world,") return output[0]['generated_text']
- CI/CD : ajouter comme secret d'actions GitHub :
// requirements.txt Flask ~= 3.0 gunicorn ~= 23.0 torch ~= 2.5 numpy ~= 2.1 transformers ~= 4.46 huggingface_hub[cli] ~= 0.26
Le jeton sera automatiquement utilisé pour télécharger et accéder à vos modèles privés ou sécurisés.
Bonus CI/CD
Scaffoldly génère même une action GitHub pour les déploiements automatisés :
// scaffoldly.json { "name": "python-huggingface", "runtime": "python:3.12", "handler": "localhost:8000", "files": ["app.py"], "packages": ["pip:requirements.txt"], "resources": ["arn::elasticfilesystem:::file-system/.cache"], "schedules": { "@immediately": "huggingface-cli download openai-community/gpt2" }, "scripts": { "start": "gunicorn app:app" }, "memorySize": 1024 }
Essayez-le vous-même
L'exemple complet est disponible sur GitHub :
échafaudage/exemples d'échafaudage#python-huggingface
Et vous pouvez créer votre propre copie de cet exemple en exécutant :
generator = pipeline('text-generation', model='your-model-here')
Vous pouvez le voir fonctionner en direct (bien que les réponses puissent être lentes en raison de l'inférence du processeur) :
Démo en direct
Quelle est la prochaine étape ?
- Essayez de déployer différents modèles Hugging Face
- Rejoignez la communauté Scaffoldly sur Discord
- Découvrez d'autres exemples
- Startez nos dépôts si vous avez trouvé cela utile !
- La chaîne d'outils d'échafaudage
- Le référentiel d'exemples Scaffoldly
Licences
Scaffoldly est Open Source et les contributions de la communauté sont les bienvenues.
- Les exemples sont sous licence Apache-2.0.
- La chaîne d'outils d'échafaudage est sous licence FSL-1.1-Apache-2.0.
Quels autres modèles souhaitez-vous exécuter dans AWS Lambda ? Faites-le moi savoir dans les commentaires !
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Solution aux problèmes d'autorisation Lors de la visualisation de la version Python dans Linux Terminal Lorsque vous essayez d'afficher la version Python dans Linux Terminal, entrez Python ...

Cet article explique comment utiliser la belle soupe, une bibliothèque Python, pour analyser HTML. Il détaille des méthodes courantes comme find (), find_all (), select () et get_text () pour l'extraction des données, la gestion de diverses structures et erreurs HTML et alternatives (Sel

La sérialisation et la désérialisation des objets Python sont des aspects clés de tout programme non trivial. Si vous enregistrez quelque chose dans un fichier Python, vous effectuez une sérialisation d'objets et une désérialisation si vous lisez le fichier de configuration, ou si vous répondez à une demande HTTP. Dans un sens, la sérialisation et la désérialisation sont les choses les plus ennuyeuses du monde. Qui se soucie de tous ces formats et protocoles? Vous voulez persister ou diffuser des objets Python et les récupérer dans son intégralité plus tard. C'est un excellent moyen de voir le monde à un niveau conceptuel. Cependant, à un niveau pratique, le schéma de sérialisation, le format ou le protocole que vous choisissez peut déterminer la vitesse, la sécurité, le statut de liberté de maintenance et d'autres aspects du programme

Cet article compare TensorFlow et Pytorch pour l'apprentissage en profondeur. Il détaille les étapes impliquées: préparation des données, construction de modèles, formation, évaluation et déploiement. Différences clés entre les cadres, en particulier en ce qui concerne le raisin informatique

Le module statistique de Python fournit de puissantes capacités d'analyse statistique de données pour nous aider à comprendre rapidement les caractéristiques globales des données, telles que la biostatistique et l'analyse commerciale. Au lieu de regarder les points de données un par un, regardez simplement des statistiques telles que la moyenne ou la variance pour découvrir les tendances et les fonctionnalités des données d'origine qui peuvent être ignorées et comparer les grands ensembles de données plus facilement et efficacement. Ce tutoriel expliquera comment calculer la moyenne et mesurer le degré de dispersion de l'ensemble de données. Sauf indication contraire, toutes les fonctions de ce module prennent en charge le calcul de la fonction moyenne () au lieu de simplement additionner la moyenne. Les nombres de points flottants peuvent également être utilisés. Importer au hasard Statistiques d'importation de fracTI

Ce tutoriel s'appuie sur l'introduction précédente à la belle soupe, en se concentrant sur la manipulation de Dom au-delà de la simple navigation sur les arbres. Nous explorerons des méthodes et techniques de recherche efficaces pour modifier la structure HTML. Une méthode de recherche DOM commune est ex

Cet article guide les développeurs Python sur la construction d'interfaces de ligne de commande (CLI). Il détaille à l'aide de bibliothèques comme Typer, Click et Argparse, mettant l'accent sur la gestion des entrées / sorties et promouvant des modèles de conception conviviaux pour une meilleure convivialité par la CLI.

L'article traite des bibliothèques Python populaires comme Numpy, Pandas, Matplotlib, Scikit-Learn, Tensorflow, Django, Flask et Demandes, détaillant leurs utilisations dans le calcul scientifique, l'analyse des données, la visualisation, l'apprentissage automatique, le développement Web et H et H


Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

MantisBT
Mantis est un outil Web de suivi des défauts facile à déployer, conçu pour faciliter le suivi des défauts des produits. Cela nécessite PHP, MySQL et un serveur Web. Découvrez nos services de démonstration et d'hébergement.

MinGW - GNU minimaliste pour Windows
Ce projet est en cours de migration vers osdn.net/projects/mingw, vous pouvez continuer à nous suivre là-bas. MinGW : un port Windows natif de GNU Compiler Collection (GCC), des bibliothèques d'importation et des fichiers d'en-tête librement distribuables pour la création d'applications Windows natives ; inclut des extensions du runtime MSVC pour prendre en charge la fonctionnalité C99. Tous les logiciels MinGW peuvent fonctionner sur les plates-formes Windows 64 bits.

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

SublimeText3 version anglaise
Recommandé : version Win, prend en charge les invites de code !

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP