Maison >Périphériques technologiques >IA >Système de résolution de requête simultanée utilisant Crewai
À l'ère de l'intelligence artificielle, les entreprises recherchent constamment des moyens innovants pour améliorer les services de support client. Une telle approche est de tirer parti des agents d'IA qui travaillent en collaboration pour résoudre efficacement les requêtes des clients. Cet article explore la mise en œuvre d'un système de résolution de requête simultané à l'aide de Crewai, des modèles GPT d'OpenAI et Google Gemini. Ce système utilise plusieurs agents spécialisés qui opèrent en parallèle pour gérer les requêtes des clients de manière transparente, réduisant le temps de réponse et améliorant la précision.
Cet article a été publié dans le cadre du Data Science Blogathon.
Les principaux composants du système comprennent:
Pour transformer le cadre de l'agent AI du concept en réalité, une approche de mise en œuvre structurée est essentielle. Ci-dessous, nous décrivons les étapes clés impliquées dans la mise en place et l'intégration d'agents d'IA pour une résolution de requête efficace.
La touche API OpenAI est stockée sous forme de variable d'environnement à l'aide du module OS. Cela permet au système d'authentifier les demandes d'API en toute sécurité sans les informations d'identification sensibles à codage rigide.
import os # Set the API key as an environment variable os.environ["OPENAI_API_KEY"] = ""
Le système utilise le module OS pour interagir avec le système d'exploitation.
Le système définit l'Openai_API_KEY en tant que variable d'environnement, ce qui lui permet d'authentifier les demandes d'Openai API.
Les bibliothèques nécessaires sont importées, y compris Asyncio pour gérer les opérations asynchrones et les composants de Crewai comme l'agent, l'équipe, la tâche et le LLM. Ceux-ci sont essentiels pour définir et gérer les agents d'IA.
import asyncio from crewai import Agent, Crew, Task, LLM, Process import google.generativeai as genai
Trois instances LLM différentes (GPT-4O et GPT-4) sont initialisées avec différents réglages de température. La température contrôle la créativité de la réponse, assurant un équilibre entre la précision et la flexibilité dans les réponses générées par l'AI.
# Initialize the LLM with Gemini llm_1 = LLM( model="gpt-4o", temperature=0.7) llm_2 = LLM( model="gpt-4", temperature=0.2) llm_3 = LLM( model="gpt-4o", temperature=0.3)
Le système crée trois instances LLM, chacune avec une configuration différente.
Paramètres:
Ces différents modèles et températures aident à équilibrer la précision et la créativité
Chaque agent a un rôle spécifique et des objectifs prédéfinis. Deux agents d'IA sont créés:
import os # Set the API key as an environment variable os.environ["OPENAI_API_KEY"] = ""
Voyons ce qui se passe dans ce bloc de code
import asyncio from crewai import Agent, Crew, Task, LLM, Process import google.generativeai as genai
Le système attribue dynamiquement des tâches pour assurer le traitement parallèle des requêtes.
Cette section définit les tâches attribuées aux agents d'IA dans le système de résolution de requête simultanée.
# Initialize the LLM with Gemini llm_1 = LLM( model="gpt-4o", temperature=0.7) llm_2 = LLM( model="gpt-4", temperature=0.2) llm_3 = LLM( model="gpt-4o", temperature=0.3)
Définition des tâches:
Gestion de la requête dynamique:
Sortie attendue:
Affectation d'agent:
Une fonction asynchrone est créée pour traiter une requête. La classe d'équipage organise des agents et des tâches, en les exécutant séquentiellement pour assurer une bonne résolution et un résumé de la requête.
import os # Set the API key as an environment variable os.environ["OPENAI_API_KEY"] = ""
Cette fonction définit un processus asynchrone pour exécuter une requête. Il crée une instance d'équipage, qui comprend:
La fonction utilise l'attente pour exécuter les agents AI de manière asynchrone et renvoie le résultat.
En utilisant asyncio.gather (), plusieurs requêtes peuvent être traitées simultanément. Cela réduit le temps de réponse en permettant aux agents de l'IA de gérer différents problèmes de clients en parallèle.
import asyncio from crewai import Agent, Crew, Task, LLM, Process import google.generativeai as genai
Cette fonction exécute deux requêtes simultanément. Asyncio.gather () traite les deux requêtes simultanément, réduisant considérablement le temps de réponse. La fonction renvoie les résultats des deux requêtes une fois l'exécution terminée
Les développeurs définissent des échantillons de requêtes pour tester le système, couvrant les problèmes communs de support client tels que les défaillances de connexion et les erreurs de traitement des paiements.
# Initialize the LLM with Gemini llm_1 = LLM( model="gpt-4o", temperature=0.7) llm_2 = LLM( model="gpt-4", temperature=0.2) llm_3 = LLM( model="gpt-4o", temperature=0.3)
Ce sont des échantillons de requêtes pour tester le système.
La requête 1 traite des problèmes de connexion, tandis que la requête 2 concerne les erreurs de passerelle de paiement.
Le système initialise une boucle d'événement pour gérer les opérations asynchrones. S'il ne trouve pas de boucle existante, il en crée un nouveau pour gérer l'exécution des tâches AI.
import os # Set the API key as an environment variable os.environ["OPENAI_API_KEY"] = ""
Cette section garantit qu'une boucle d'événement est disponible pour l'exécution de tâches asynchrones.
Si le système ne détecte aucune boucle d'événement (RuntimeError se produit), il en crée un nouveau et le définit comme la boucle active.
Étant donné que Jupyter et Colab ont des boucles d'événements préexistantes, Nest_asyncio.Apply () est utilisé pour empêcher les conflits, garantissant une exécution fluide des requêtes asynchrones.
import asyncio from crewai import Agent, Crew, Task, LLM, Process import google.generativeai as genai
Les cahiers Jupyter et Google Colab ont des boucles d'événements préexistantes, ce qui peut entraîner des erreurs lors de l'exécution des fonctions asynchrones.
nest_asyncio.apply () permet des boucles d'événements imbriquées, résoudre les problèmes de compatibilité.
La boucle d'événement exécute manche_two_queries () pour traiter les requêtes simultanément. Le système imprime les réponses finales générées par l'AI, affichant des résolutions et des résumés de requête.
# Initialize the LLM with Gemini llm_1 = LLM( model="gpt-4o", temperature=0.7) llm_2 = LLM( model="gpt-4", temperature=0.2) llm_3 = LLM( model="gpt-4o", temperature=0.3)
loop.run_until_complete () démarre l'exécution de manche_two_queries (), qui traite les deux requêtes simultanément.
Le système imprime les résultats, affichant les résolutions générées par l'AI pour chaque requête.
ci-dessous, nous verrons comment le système de résolution de requête simultanée améliore l'efficacité en traitant simultanément plusieurs requêtes, conduisant à des temps de réponse plus rapides et à une amélioration de l'expérience utilisateur.
Nous allons maintenant explorer les différentes applications du système de résolution de requête simultanée, y compris l'automatisation du support client, la gestion des requêtes en temps réel dans les chatbots et le traitement efficace des demandes de service à grande échelle.
Le système de résolution de requête simultanée montre comment la collaboration multi-agents axée sur l'IA peut révolutionner le support client. En tirant parti de Crewai, des modèles GPT d'OpenAI et Google Gemini, les entreprises peuvent automatiser la manipulation des requêtes, l'amélioration de l'efficacité et la satisfaction des utilisateurs. Cette approche ouvre la voie à des solutions de service plus avancées axées sur l'IA à l'avenir.
a. Crewai est un cadre qui permet à plusieurs agents d'IA de travailler en collaboration sur des tâches complexes. Il permet la gestion des tâches, la spécialisation des rôles et la coordination transparente entre les agents.
Q2. Comment fonctionne Crewai?a. Crewai définit les agents avec des rôles spécifiques, attribue des tâches dynamiquement et les traite séquentiellement ou simultanément. Il exploite les modèles AI comme GPT et Google Gemini d'OpenAI pour exécuter efficacement les tâches.
Q3. Comment Crewai gère-t-il plusieurs requêtes simultanément?a. Crewai utilise Asyncio.gather () de Python pour exécuter plusieurs tâches simultanément, garantissant une résolution de requête plus rapide sans goulot d'étranglement de performance.
Q4. Crewai peut-il s'intégrer à différents LLMS?a. Oui, Crewai prend en charge divers modèles de grande langue (LLMS), y compris les GPT-4, GPT-4O d'OpenAI, et les Gémeaux de Google, permettant aux utilisateurs de choisir en fonction des exigences de vitesse et de précision.
Q5. Comment Crewai assure la précision des tâches?a. En utilisant différents modèles d'IA avec des paramètres de température variés, Crewai équilibre la créativité et l'exactitude factuelle, assurant des réponses fiables.
Le média présenté dans cet article ne appartient pas à l'analyse vidhya et est utilisé à la discrétion de l'auteur.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!