Maison >Périphériques technologiques >Industrie informatique >Comment construire votre propre assistant AI à l'aide d'API.ai
Vous voulez avoir une compréhension approfondie de l'intelligence artificielle? Regardez notre didacticiel vidéo "API Microsoft Cognitive Services and Text Analysis: Implémentation de l'analyse des sentiments AI dans votre robot".
Le monde des assistants intelligents change avec chaque jour qui passe - Siri, Cortana, Alexa, OK Google, Facebook M, Bixby - tous les géants de la technologie ont leurs propres assistants intelligents. Cependant, de nombreux développeurs ne réalisent pas que la construction de leur propre assistant d'IA est en fait très simple! Vous pouvez personnaliser vos besoins, vos appareils IoT et vos API personnalisés, et les possibilités sont infinies.
Remarque: Cet article a été mis à jour en 2017 pour refléter les derniers changements dans API.AI.
Plus tôt, j'ai écrit un guide sur cinq façons simples de construire l'intelligence artificielle en 2016, qui couvre des options simples pour construire un assistant d'IA. Dans cet article, je veux me concentrer sur un service spécifique - API.ai, qui fait de la construction un assistant AI entièrement fonctionnel extrêmement simple et a très peu de paramètres initiaux.
Cet article fait partie d'une série d'articles conçus pour vous aider à exécuter un assistant personnel simple à l'aide d'API.ai:
api.ai est un service qui permet aux développeurs de construire des systèmes de traitement de la voix et du langage naturel, du langage naturel, que vous pouvez vous entraîner avec vos propres fonctionnalités personnalisées. Ils ont une gamme de bases de connaissances existantes appelées «domaines» sur lesquelles API.ai construit des systèmes qui peuvent comprendre automatiquement - qui sont l'accent sur lequel nous nous concentrerons dans cet article. Le domaine fournit une base de connaissances complète de la connaissance de l'encyclopédie, de la traduction linguistique, de la météo et d'autres connaissances. Dans un prochain article, je couvrirai certains des aspects les plus avancés d'API.ai qui vous permettent de personnaliser davantage votre assistant.
Tout d'abord, nous nous dirigerons vers le site Web api.ai et cliquerons sur le bouton "Démarrer gratuit" ou le bouton "Inscription gratuit" dans le coin supérieur droit.
Nous allons ensuite aller dans un formulaire d'inscription assez simple: entrez votre nom, votre e-mail et votre mot de passe et cliquez sur "Inscrivez-vous". Pour ceux qui souhaitent éviter un autre ensemble d'identification de connexion, vous pouvez également vous inscrire avec votre compte GitHub ou Google en utilisant le bouton à droite.
ASPI.ai a été acquise par Google, il a été déplacé de se connecter avec uniquement des comptes Google. Donc, si vous êtes nouveau sur api.ai, vous devez vous connecter avec votre compte Google:
Cliquez sur "Autoriser" sur l'écran suivant pour accorder une autorisation API.ai pour accéder à votre compte Google:
Vous devez également lire et accepter leurs conditions de service:
Après votre inscription, vous irez directement à l'interface API.AI où vous pouvez créer votre assistant AI virtuel. Chaque assistant que vous créez et enseignez une compétence spécifique est appelé «agent» dans API.ai. Ainsi, vous pouvez d'abord cliquer sur le bouton "Créer un agent" dans le coin supérieur gauche pour créer votre premier agent:
Vous devrez peut-être réautoriser API.ai pour obtenir des autorisations supplémentaires sur votre compte Google. C'est normal, pas de problème! Cliquez sur "Autorisation" pour continuer:
Ensuite, permettez:
Sur l'écran suivant, entrez les détails de votre agent, y compris:
Il configure également un projet de plate-forme Google Cloud pour votre agent, vous n'avez donc rien à faire à cet égard; Il est important de le savoir, donc si vous faites beaucoup de tests et créez beaucoup d'agents, sachez que vous créez de nombreux projets de plate-forme Cloud Google que vous devrez peut-être nettoyer un jour.
Après avoir saisi les paramètres de proxy, sélectionnez "Enregistrer" à côté du nom proxy pour tout sauver:
Après avoir créé l'agent, vous pouvez le tester à l'aide de la console de test à droite. Vous pouvez entrer une requête en haut et il enverra ces requêtes à votre proxy, vous montrant ce qui sera retourné après avoir entendu ces déclarations. Entrez une question comme "Comment allez-vous?" Et voyez ce qu'il revient. Vos résultats doivent être affichés ci-dessous:
Si vous faites défiler à droite du résultat, vous verrez plus de détails sur la façon dont API.ai explique votre demande (comme indiqué dans la capture d'écran ci-dessus). En dessous, il y a un bouton appelé "Show JSON". Cliquez dessus pour voir comment l'API renvoie ces réponses à votre application.
api.ai ouvrira le spectateur JSON et vous montrera une réponse JSON similaire à ceci:
<code class="language-json">{ "id": "21345678", "timestamp": "2017-05-12T08:04:49.031Z", "lang": "en", "result": { "source": "agent", "resolvedQuery": "How are you?", "action": "input.unknown", "actionIncomplete": false, "parameters": {}, "contexts": [], "metadata": { "intentId": "6320071", "webhookUsed": "false", "webhookForSlotFillingUsed": "false", "intentName": "Default Fallback Intent" }, "fulfillment": { "speech": "Sorry, can you say that again?", "messages": [ { "type": 0, "speech": "Sorry, could you say that again?" } ] }, "score": 1 }, "status": { "code": 200, "errorType": "success" }, "sessionId": "243c" }</code>
comme vous pouvez le voir ... Votre agent ne sait pas comment répondre! Pour le moment, ce n'est pas vraiment une IA "intelligente": elle doit encore ajouter des pièces intelligentes. La valeur d'entrée.unknown dans le champ d'action vous indique qu'il ne sait pas comment procéder. Ci-dessus, il renvoie un message "Désolé, pouvez-vous le répéter?", Qui est l'un de ses replies par défaut. Il ne s'agit pas de dire aux humains qu'il ne comprend pas, mais il leur demande à plusieurs reprises de le répéter ... ce n'est pas idéal, je préfère le changer en quelque chose qui montre plus clairement lorsque le robot ne comprend pas. Si vous êtes également pointilleux sur des choses comme celle-ci et que vous souhaitez modifier ce qu'elle dit ici, vous pouvez le trouver sur la page d'intention en cliquant sur l'élément d'intention de retour par défaut là-bas.
Pour ceux qui ont utilisé API.ai il y a quelque temps (ou le voir fonctionner), vous pouvez en fait vous attendre à ce qu'il fournisse plus de fonctionnalités lorsqu'il sort de la boîte. Auparavant, il a pu répondre aux requêtes telles que "qui est Steve Jobs?" Ce n'est pas le cas maintenant! Vous devez ajouter des intégrations personnalisées avec des API tierces pour agir et obtenir des informations. Api.ai fournit une analyse et une interprétation des phrases.
Vous pouvez ajouter une fonctionnalité par défaut qui permettra à votre bot de montrer un peu d'intelligence - la fonction "CHAT". Cela fournit une gamme de réponses aux questions courantes… y compris le «Comment allez-vous?» Mais cela n'est pas activé par défaut. Pour l'activer, accédez à l'élément de menu de chat à gauche et cliquez sur Activer:
Lorsqu'il est activé, si vous faites défiler vers le bas, vous pouvez voir une gamme de phrases communes en petit chat. Trouvez la section "salutations / adieu" et cliquez dessus pour la développer. Ajoutez des réponses différentes à la question "Comment allez-vous?" Et cliquez sur "Enregistrer" dans le coin supérieur droit. Après avoir ajouté la phrase, vous verrez le nombre de pourcentage augmenter à côté de la section «salutations / adieu» pour montrer combien de chatbots vous avez personnalisés.
Ensuite, si vous allez à la console de test et demandez-le à nouveau "Comment allez-vous?", Il devrait maintenant répondre avec l'une des réponses que vous avez entrées!
s'il ne répond pas correctement, vérifiez si vous avez réellement cliqué "Enregistrer" avant d'essayer! Il ne sera pas enregistré automatiquement.
Idéalement, vous devez personnaliser autant que possible vos réponses de chat: cela donnera à votre bot API.ai une personnalité plus unique. Vous pouvez choisir le ton et la structure de leur réponse. Est-ce un chatbot grincheux qui déteste les humains à parler? Est-ce un chatbot obsédé par un chat? Ou un chatbot qui répond dans le style Internet / SMS d'un adolescent? Vous pouvez décider!
Maintenant que vous avez au moins quelques éléments de chat en cours d'exécution, votre agent est maintenant prêt à l'intégrer dans votre propre interface d'application Web. Pour ce faire, vous devez obtenir la clé API pour accéder à distance à votre proxy.
La clé API dont vous avez besoin est située sur la page Paramètres de proxy. Pour le trouver, cliquez sur l'icône du matériel à côté du nom de l'agent. Sur la page qui apparaît, copiez et collez le jeton d'accès client dans un endroit sûr. C'est ce que nous devons utiliser pour émettre des requêtes au service API.AI:
Si vous souhaitez afficher le code de travail et l'essayer, il peut être trouvé sur GitHub. N'hésitez pas à l'utiliser et à étendre cette idée pour créer votre propre assistant personnel d'IA.
Si vous voulez l'essayer, je lance Barry ici. Profitez-en!
Vous avez actuellement un assistant personnel fonctionnel qui fonctionne quelque part dans le cloud API.ai. Vous avez maintenant besoin d'un moyen de parler à votre assistant personnel à partir de votre propre interface. API.ai a une série de SDK de plate-forme qui fonctionnent avec Android, iOS, les applications Web, l'unité, la cordova, le C, etc. Vous pouvez même l'intégrer dans un bot Slack ou un bot Facebook Messenger! Dans cet exemple, vous utiliserez HTML et JavaScript pour créer une application Web d'assistance personnelle simple. Ma démo est basée sur le concept affiché dans HTML JS GIST de API.AI.
Votre application fera ce qui suit:
L'ensemble de l'application Web se trouve sur GitHub dans le lien ci-dessus. N'hésitez pas à y référer pour voir comment je style et construire HTML. Je n'expliquerai pas toutes les parties de la façon dont elle est construite dans ce post, en se concentrant principalement sur l'aspect API.ai SDK. Je signalerai également brièvement et expliquerai quelles pièces utilisent l'API de reconnaissance vocale HTML5 et l'API de la parole Web.
Votre javascript contient les variables suivantes:
<code class="language-json">{ "id": "21345678", "timestamp": "2017-05-12T08:04:49.031Z", "lang": "en", "result": { "source": "agent", "resolvedQuery": "How are you?", "action": "input.unknown", "actionIncomplete": false, "parameters": {}, "contexts": [], "metadata": { "intentId": "6320071", "webhookUsed": "false", "webhookForSlotFillingUsed": "false", "intentName": "Default Fallback Intent" }, "fulfillment": { "speech": "Sorry, can you say that again?", "messages": [ { "type": 0, "speech": "Sorry, could you say that again?" } ] }, "score": 1 }, "status": { "code": 200, "errorType": "success" }, "sessionId": "243c" }</code>
Ce qui suit est à quoi sert chaque variable:
<input>
afin que vous puissiez y accéder en JavaScript. <button></button>
, qui sera utilisé lorsque l'utilisateur souhaite cliquer et parler à l'application Web (ou s'arrête à écouter si l'écoute). Dans ces lignes de code, trouvez l'heure à laquelle l'utilisateur appuie entre dans le champ de saisie. Lorsque cela se produit, exécutez la fonction Send () pour envoyer des données à api.ai:
<code class="language-json">{ "id": "21345678", "timestamp": "2017-05-12T08:04:49.031Z", "lang": "en", "result": { "source": "agent", "resolvedQuery": "How are you?", "action": "input.unknown", "actionIncomplete": false, "parameters": {}, "contexts": [], "metadata": { "intentId": "6320071", "webhookUsed": "false", "webhookForSlotFillingUsed": "false", "intentName": "Default Fallback Intent" }, "fulfillment": { "speech": "Sorry, can you say that again?", "messages": [ { "type": 0, "speech": "Sorry, could you say that again?" } ] }, "score": 1 }, "status": { "code": 200, "errorType": "success" }, "sessionId": "243c" }</code>
Ensuite, observez si l'utilisateur a cliqué sur le bouton d'enregistrement pour demander à l'application de les écouter (ou de faire une pause si elle écoute). S'ils cliquent dessus, exécutez la fonction SwitchRecognition () pour basculer entre l'enregistrement et non l'enregistrement:
<code class="language-javascript">var accessToken = "YOURACCESSTOKEN", baseUrl = "https://api.api.ai/v1/", $speechInput, $recBtn, recognition, messageRecording = "正在录制...", messageCouldntHear = "我没有听清,你能再说一遍吗?", messageInternalError = "哦,不,发生了内部服务器错误", messageSorry = "对不起,我还没有答案。";</code>
Enfin, pour vos paramètres JQuery initiaux, vous définissez un bouton qui sera situé en bas à droite de l'écran pour afficher et masquer la réponse JSON. Il s'agit simplement de rester simple: dans la plupart des cas, vous ne voulez pas voir les données JSON entrantes, mais parfois si quelque chose d'inattendu se produit, vous pouvez cliquer sur ce bouton pour faire basculer si le JSON est visible:
<code class="language-javascript">$speechInput.keypress(function(event) { if (event.which == 13) { event.preventDefault(); send(); } });</code>
Comme mentionné ci-dessus, vous utiliserez l'API de reconnaissance vocale HTML5 pour écouter les utilisateurs et transcrire ce qu'ils disent. Actuellement, cela ne s'applique qu'à Google Chrome.
Notre fonction startreCognition () ressemble à ceci:
<code class="language-javascript">$recBtn.on("click", function(event) { switchRecognition(); });</code>
Voici comment exécuter l'API de reconnaissance vocale HTML5. Tout utilise les fonctions dans webKitsPeEchRecognition (). Voici quelques conseils sur ce qui se passe:
Votre fonction stopRecognition () est beaucoup plus simple. Il arrête votre reconnaissance et le définit sur Null. Il met ensuite à jour le bouton pour montrer que vous n'enregistrez plus:
<code class="language-json">{ "id": "21345678", "timestamp": "2017-05-12T08:04:49.031Z", "lang": "en", "result": { "source": "agent", "resolvedQuery": "How are you?", "action": "input.unknown", "actionIncomplete": false, "parameters": {}, "contexts": [], "metadata": { "intentId": "6320071", "webhookUsed": "false", "webhookForSlotFillingUsed": "false", "intentName": "Default Fallback Intent" }, "fulfillment": { "speech": "Sorry, can you say that again?", "messages": [ { "type": 0, "speech": "Sorry, could you say that again?" } ] }, "score": 1 }, "status": { "code": 200, "errorType": "success" }, "sessionId": "243c" }</code>
SwitchRecognition () bascule, que vous démarrez ou arrête la reconnaissance en vérifiant la variable de reconnaissance. Cela permet à vos boutons de basculer la fonction de reconnaissance en activité:
<code class="language-javascript">var accessToken = "YOURACCESSTOKEN", baseUrl = "https://api.api.ai/v1/", $speechInput, $recBtn, recognition, messageRecording = "正在录制...", messageCouldntHear = "我没有听清,你能再说一遍吗?", messageInternalError = "哦,不,发生了内部服务器错误", messageSorry = "对不起,我还没有答案。";</code>
Pour envoyer votre requête à api.ai, vous pouvez utiliser la fonction Send (), qui ressemble à ceci:
<code class="language-javascript">$speechInput.keypress(function(event) { if (event.which == 13) { event.preventDefault(); send(); } });</code>
Il s'agit d'une demande de post ajax typique utilisant jQuery pour https://www.php.cn/link/dfc0a2d63b0d7a1ce1cd07ffe3a3aea7 . Vous vous assurez de lui envoyer des données JSON et de vous attendre à en tirer les données JSON. Vous devez également définir deux en-têtes: l'autorisation et l'OCP-apim-subscription-key - à la clé API d'API.ai. Vous envoyez des données à api.ai au format {q: texte, lang: "en"} et attendez une réponse.
Lorsque vous recevez la réponse, vous exécuterez PrepareResponse (). Dans cette fonction, vous formatez la chaîne JSON à placer dans la section de débogage de l'application Web et éliminez la section Result.speech de la réponse API.ai, qui vous fournit la réponse texte de l'assistant. Vous affichez chaque message via Response () et DebugResPond ():
<code class="language-javascript">$recBtn.on("click", function(event) { switchRecognition(); });</code>
Votre fonction DebugResPond () place du texte dans votre champ de réponse JSON:
<code class="language-javascript">$(".debug__btn").on("click", function() { $(this).next().toggleClass("is-active"); return false; });</code>
Votre fonction de réponse () a plus d'étapes:
<code class="language-javascript">function startRecognition() { recognition = new webkitSpeechRecognition(); recognition.onstart = function(event) { respond(messageRecording); updateRec(); }; recognition.onresult = function(event) { recognition.onend = null; var text = ""; for (var i = event.resultIndex; i < event.results.length; ++i) { text += event.results[i][0].transcript; } setInput(text); stopRecognition(); }; recognition.onend = function() { respond(messageCouldntHear); stopRecognition(); }; recognition.lang = "en-US"; recognition.start(); }</code>
Tout d'abord, vous vérifiez si la valeur de réponse est vide. Si oui, définissez-le pour indiquer qu'il n'est pas sûr de la réponse à la question, car api.ai ne vous renvoie pas de réponse valide:
<code class="language-json">{ "id": "21345678", "timestamp": "2017-05-12T08:04:49.031Z", "lang": "en", "result": { "source": "agent", "resolvedQuery": "How are you?", "action": "input.unknown", "actionIncomplete": false, "parameters": {}, "contexts": [], "metadata": { "intentId": "6320071", "webhookUsed": "false", "webhookForSlotFillingUsed": "false", "intentName": "Default Fallback Intent" }, "fulfillment": { "speech": "Sorry, can you say that again?", "messages": [ { "type": 0, "speech": "Sorry, could you say that again?" } ] }, "score": 1 }, "status": { "code": 200, "errorType": "success" }, "sessionId": "243c" }</code>
Si vous avez un message pour être sorti et que ce n'est pas le message enregistré, vous utiliserez l'API vocale Web pour lire le message à haute voix en utilisant l'objet SpeechSynthesutterance. J'ai trouvé que si Voiceuri et Lang ne sont pas définis, la voix par défaut du navigateur est allemande! Cela rend difficile de comprendre le discours jusqu'à ce que je le change. Pour dire réellement le message, vous utilisez la fonction Window.SpeechSynthesis.Speak (MSG):
<code class="language-javascript">var accessToken = "YOURACCESSTOKEN", baseUrl = "https://api.api.ai/v1/", $speechInput, $recBtn, recognition, messageRecording = "正在录制...", messageCouldntHear = "我没有听清,你能再说一遍吗?", messageInternalError = "哦,不,发生了内部服务器错误", messageSorry = "对不起,我还没有答案。";</code>
Remarque: Il est important de ne pas le laisser dire "Enregistrement ..." Texte: Si vous faites cela, le microphone ramassera la voix et l'ajoutera à la requête enregistrée.
Enfin, affichez votre boîte de réponse et ajoutez ce texte pour que l'utilisateur puisse le lire également:
<code class="language-javascript">$speechInput.keypress(function(event) { if (event.which == 13) { event.preventDefault(); send(); } });</code>
Pour les meilleurs résultats, vous devrez peut-être l'héberger sur un serveur Web compatible HTTPS. Votre demande à API.AI est faite via HTTPS, il est donc préférable d'héberger également votre interface Web sur HTTPS. Si vous souhaitez simplement l'utiliser comme prototype et que vous n'avez pas de serveur Web sécurisé HTTPS standard, essayez Glitch.com! Il s'agit d'un nouveau service qui peut héberger des extraits de code qui contiennent à la fois le code frontal et back-end (Node.js).
Par exemple, mon Barry est également hébergé à https://www.php.cn/link/e35284b6966864480f02bc12997b8b49 L'hébergement glitch est complètement gratuit! C'est un excellent service et je vous recommande fortement de l'essayer.
Si vous souhaitez agrandir ce projet, envisagez d'utiliser Let’s Encrypt pour obtenir un certificat SSL / TLS gratuit ou envisagez d'acheter un certificat auprès de votre hôte Web.
Si vous exécutez une application Web en utilisant mon style à partir du référentiel GitHub, cela ressemble à ceci:
Si vous cliquez sur "parler" et dire "Comment allez-vous?"
(Lorsque vous cliquez sur le bouton, vous devrez peut-être permettre à Chrome d'accéder à votre microphone. Évidemment, cela se produit à chaque fois que vous ne servez la page des HTTPS.)
Vous pouvez également cliquer sur le bouton dans le coin inférieur droit pour afficher l'API de réponse JSON.ai au cas où vous souhaitez déboguer le résultat:
Si vous semblez recevoir un message principalement "Je n'ai pas entendu clairement, pouvez-vous le répéter?", Veuillez vérifier les autorisations de microphone dans votre navigateur. Si vous chargez la page localement (par exemple, si votre barre d'adresse démarre avec un fichier: ///), Chrome ne semble pas du tout fournir un accès au microphone, vous vous retrouvez donc avec cette erreur de toute façon! Vous devez l'accueillir quelque part. (Essayez d'utiliser Glitch.com mentionné ci-dessus.)
Personnellement, je n'aime pas certaines des phrases par défaut dans Small Talk, comme ceci:
J'ai personnalisé bon nombre de ces phrases dans ces paramètres que j'ai vus plus tôt. Par exemple, j'ai trouvé cette petite déclaration de chat dans la liste très étrange, j'ai donc décidé de le personnaliser comme ceci:
Alors, commencez à créer votre propre chatbot! Faites-le unique et amusez-vous!
Je trouve que parfois, si l'API de la voix Web essaie de dire quelque chose de trop long, la voix de Chrome cesse de fonctionner. Si c'est le cas pour vous, fermez l'onglet et ouvrez un nouvel onglet pour réessayer.
Je suis sûr que vous verrez qu'API.ai est un moyen vraiment simple de construire un assistant personnel AI de style chatbot.
Vous voulez continuer à développer votre robot API.ai? Plus de choses à faire: c'est toute la série que j'ai écrite sur SitePoint!
Si vous construisiez votre propre assistant personnel en utilisant API.ai, j'aimerais entendre ce que vous pensez! L'avez-vous nommé Barry aussi? Quels problèmes avez-vous mis pour cela? Veuillez me le faire savoir dans les commentaires ci-dessous ou contactez-moi sur Twitter via @thatpatrickguy.
Utilisez des outils émotionnels pour injecter des éléments humains dans votre IA. Consultez nos didacticiels vidéo sur l'API des services cognitifs Microsoft et de l'analyse de texte.
Pour construire un assistant AI à l'aide d'API.ai, vous avez besoin d'une compréhension de base des concepts et des langages de programmation (en particulier JavaScript). Vous devez également être familier avec le service Google Cloud car API.ai fait partie de Google Cloud. Il est également avantageux de comprendre les concepts de l'IA et de l'apprentissage automatique. Cependant, API.ai est conçu pour être facile à utiliser et ne nécessite pas de connaissances en profondeur d'IA.
api.ai fournit un support intégré à de nombreuses plateformes populaires telles que Slack, Facebook Messenger et Skype. Vous pouvez utiliser le SDK et l'API API.AI pour intégrer votre assistant AI à ces plateformes. Ce processus consiste à configurer un webhook et à configurer des paramètres de plate-forme dans la console API.AI.
Oui, api.ai vous permet de personnaliser le comportement d'un assistant AI. Vous pouvez définir des intentions et des entités personnalisées qui déterminent comment votre assistant AI répond à la saisie des utilisateurs. Vous pouvez également utiliser la fonction d'exécution pour écrire du code personnalisé qui est exécuté lorsqu'une intention spécifique est déclenchée.
La précision de l'assistant de l'IA dépend de la qualité des données de formation. Vous pouvez améliorer la précision en fournissant divers exemple de phrases pour chaque intention. Api.ai fournit également une fonctionnalité appelée "mode d'apprentissage automatique" qui améliore automatiquement le modèle en fonction de l'interaction utilisateur.
Oui, API.ai prend en charge plusieurs langues. Vous pouvez construire des assistants d'IA multilingues en définissant des intentions et des entités dans différentes langues. Api.ai détectera automatiquement la langue entrée par l'utilisateur.
api.ai fournit une console de test intégrée où vous pouvez interagir avec votre assistant AI. Vous pouvez saisir des phrases d'utilisateurs et voir comment votre assistant AI répond. Cela vous permet de tester et d'améliorer votre assistant d'IA pendant le développement.
api.ai fait partie de Google Cloud et son prix est basé sur l'utilisation. Il existe un niveau gratuit qui comprend un certain nombre de demandes par minute et mensuellement. Après avoir dépassé le niveau gratuit, vous serez payé en fonction du nombre de demandes.
Oui, API.ai fournit des SDK pour Android et iOS. Vous pouvez utiliser ces SDK pour intégrer votre assistant d'IA à vos applications mobiles.
api.ai fournit une fonctionnalité appelée "contexte" qui vous permet de gérer des conversations complexes. Le contexte vous permet de contrôler le flux de conversation et de gérer les dépendances entre les intentions.
Oui, API.ai fournit des capacités d'analyse qui vous permettent d'analyser les interactions utilisateur. Vous pouvez afficher les statistiques d'utilisation, les performances de l'intention et les cotes de satisfaction des utilisateurs. Ces informations peuvent vous aider à améliorer votre assistant d'IA au fil du temps.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!