Maison > Article > Périphériques technologiques > Que se passe-t-il lorsque la société de support client met à niveau certaines fonctionnalités vers ChatGPT ?
ChatGPT est désormais devenu un chatbot populaire dans le monde entier, et presque toutes les entreprises réfléchissent à la manière de l'utiliser pour améliorer leur efficacité commerciale. Cinq jours après sa mise en ligne en novembre de l'année dernière, il comptait 1 million d'utilisateurs. Au cours des deux mois suivants, ce chatbot à intelligence artificielle comptait plus de 200 millions d'utilisateurs.
Ce programme de langage d'apprentissage automatique développé par OpenAI, développeur d'intelligence artificielle basé à San Francisco, peut fournir des réponses textuelles de type humain. Il peut résumer de longs articles ou des conversations textuelles, fournir des conseils en matière de rédaction, planifier des campagnes de marketing, élaborer des plans d'affaires et même créer ou créer. modifier du code informatique, le tout avec un investissement limité.
Microsoft, qui détient 49 % d'OpenAI, a investi des milliards de dollars dans l'entreprise. Microsoft a également lancé un moteur de recherche Bing basé sur la dernière version du grand modèle de langage GPT-4 d'OpenAI, tout comme ChatGPT développé sur cette base. modèle. Pour ne pas être en reste, Google a récemment lancé son propre chatbot expérimental à intelligence artificielle.
Intercom est un fournisseur de logiciels de support client dont les produits sont utilisés par 25 000 entreprises dans le monde, dont Atlassian, Amazon et Lyft Business, et est actuellement à la pointe de l'utilisation de ChatGPT. Le logiciel de la société utilise simplement les fonctionnalités du grand modèle de langage de ChatGPT (GPT3.5) pour ajouter des fonctionnalités basées sur l'IA à sa plate-forme.
Fergal Reid, directeur de l'apprentissage automatique chez Intercom, a déclaré que l'ajout de la fonctionnalité ChatGPT au logiciel de service client d'intelligence artificielle de l'entreprise présente des avantages indéniables. Le logiciel d'Intercom est utilisé pour aider les représentants du service client à répondre aux questions des clients. Intercom vend également un chatbot d'assistance appelé « Resolution Bot » que les entreprises peuvent intégrer sur leurs sites Web pour répondre automatiquement aux questions des utilisateurs finaux.
Mais Reid a averti que ChatGPT présente également des problèmes qui ne peuvent être ignorés. En raison de problèmes de prix, le nouveau logiciel de service client est toujours en version bêta pour des centaines de clients Intercom.
Cependant, les clients qui ont testé le logiciel d'Intercom ont fait l'éloge du logiciel mis à jour (basé sur le modèle de langage GPT-3.5 d'OpenAI) et affirment qu'il facilitera leur travail.
Dans une interview avec les médias du secteur, Reid a expliqué le processus de personnalisation du logiciel ChatGPT pour un usage commercial d'Intercom, la manière dont il apporte une valeur commerciale et les défis que lui et son équipe d'apprentissage automatique ont rencontrés et sont toujours confrontés.
Ce qui suit est un extrait de l'interview :
Reid : Notre activité est essentiellement le service client. Nous avons développé une messagerie afin que si quelqu'un posait une question sur l'assistance client ou le service, il se rendait sur le site Web d'une entreprise et tapait la question dans la messagerie, tout comme dans un chat WhatsApp.
Intercom est l'un des leaders du secteur du support client et l'une des premières entreprises à lancer ce service de messagerie professionnelle. Nous avons donc développé ce messager, puis construit toute une plate-forme de support client pour les personnes du support client (nous les appelons coéquipiers) dont le travail consistait à répondre aux questions du support client à plusieurs reprises, jour après jour.
Nous avons constaté que ChatGPT passe à un autre niveau dans la gestion des conversations aléatoires. Lorsque les gens posent des questions, ils peuvent les poser de manière surprenante. Au cours d'une conversation, les gens peuvent évoquer des choses qu'ils ont dites lors des tours précédents de la conversation. C'est difficile à gérer pour les systèmes d'apprentissage automatique traditionnels, mais la nouvelle technologie d'OpenAI semble faire un meilleur travail dans ce domaine.
Nous avons essayé ChatGPT et GPT3. Nous nous sommes dit : "C'est une grosse affaire. Cela débloquera des capacités plus puissantes pour nos chatbots et nos coéquipiers
Reid : Après avoir commencé à développer le produit début décembre ? L'année dernière, nous avons présenté le premier prototype début janvier et le cycle de développement a été très rapide, et nous avons eu 108 clients qui l'ont utilisé pour des tests vers la mi-janvier, puis une autre version de test fin janvier. est actuellement en version bêta publique, donc des centaines de clients de contenu l'utilisent et nous l'appelons toujours version bêta, même si les gens l'utilisent en production tous les jours
C'est une démo convaincante, le prototype ne fournit pas de version réelle. Nous avons donc encore beaucoup de travail à faire pour comprendre la valeur réelle de ce prototype par rapport au coût de n'importe quelle API que les gens pourraient utiliser. Cela coûtera quelque chose à l'utilisateur de simplement le laisser résumer ce. c'est le cas, et même si c'est beaucoup moins cher que de le faire soi-même, c'est un problème que les entreprises doivent résoudre. Alors, comment le tarifer ?
C'est là que nous en sommes encore. Une autre raison pour laquelle nous sommes en phase de test. , sont encore en train d'en apprendre davantage sur le coût de cette technologie. Elle permet aux gens de gagner plus de temps en termes de coûts de traitement informatique, mais il reste à explorer la manière de réaliser des économies
Reid : Je pense que ChatGPT ressemble plus à une interface pour le modèle GPT 3.5. Cependant, quiconque construit sur ChatGPT s'appuie sur le même modèle sous-jacent, qu'OpenAI appelle GPT 3.5. Ils sont fondamentalement les mêmes, la différence réside dans l’interface utilisateur.
La formation ChatGPT a plus de garde-fous, donc si vous le laissez faire quelque chose qu'il ne veut pas faire, il dira : « Je ne suis qu'un grand modèle de langage, je ne peux pas faire ça et le langage sous-jacent. » le modèle n'a pas ces garde-corps. Ils ne sont pas formés pour parler aux utilisateurs finaux sur Internet. Par conséquent, tout développeur créant un produit utilise le modèle sous-jacent, et non l'interface ChatGPT. Cependant, en termes de complexité de compréhension et de fonctionnalité du modèle sous-jacent, c'est fondamentalement la même chose.
Le modèle que nous utilisons est Text-Davinci-003, pratiquement tout le monde l'utilise.
Avez-vous des options sur ce qu'il faut construire ? Existe-t-il d'autres grands modèles de langage tiers qui peuvent être utilisés pour créer de nouvelles fonctionnalités de représentation de service ?
Reid : Actuellement, ChatGPT n'est pas une application hébergée par OpenAI pour ces modèles ? Personne ne peut vraiment utiliser ChatGPT à l'exception d'OpenAI. Techniquement, je pense que ChatGPT est un service fourni par OpenAI au public, et n'importe qui peut créer un ChatGPT sur son site Web. Pour être plus précis, ils utilisent le même modèle OpenAI qui alimente ChatGPT.
Reid : La fonctionnalité que nous avons initialement publiée était destinée au personnel du support client, et non aux utilisateurs finaux. Nous développons des chatbots pour les utilisateurs finaux, puis proposons des fonctionnalités de productivité basées sur l'apprentissage automatique pour le personnel du support client. Notre version initiale du produit Resolution Bot comportait des fonctionnalités permettant d'améliorer le personnel du support client, elle n'était pas conçue pour les utilisateurs finaux.
La raison pour laquelle nous faisons cela est que de nombreux modèles d'apprentissage automatique actuels d'OpenAI souffrent de ce que l'on appelle des hallucinations. Si vous leur posez une question et que la bonne réponse n’est pas donnée, ils inventeront souvent une réponse.
Cette situation a dépassé nos attentes. Il y a des fonctionnalités qui sont évidemment utiles, comme le résumé, et puis il y en a d'autres, comme reformuler le texte ou rendre le texte plus convivial.
Il est concevable que leur travail ne consiste pas à garantir que de véritables informations soient fournies, ils ne peuvent donc qu'inventer des informations. Au départ, nous étions réticents à laisser les utilisateurs les utiliser et répondre à leurs questions. Nous craignions que l’expérience de nos clients soit affectée par les réponses incorrectes du chatbot. Nos premiers tests montrent que laisser les clients utiliser un chatbot immature alimenté par ChatGPT est une très mauvaise idée. Nous continuerons à travailler dur et nous pensons qu’il y aura de meilleures solutions à l’avenir.
Reid : Bien que nous travaillions dans cet espace et que nous disposions certainement de prototypes de R&D internes, nous n'avons ni nommé ni engagé à lancer des produits chez cette fois. ou des outils.
Nous avons initialement lancé des chatbots uniquement pour aider les personnes du support client, car elles sauraient généralement quelle est la bonne réponse, et les chatbots leur permettraient toujours de fournir un service plus rapidement et plus efficacement, car 90 % du temps, ils n'ont pas à saisir le répondez-vous. Ensuite, 10 % du temps, lorsque quelque chose ne va pas, le support client peut le résoudre directement.
Donc, cela ressemble davantage à une interface. Si vous utilisez Google Docs ou tout autre texte prédictif pouvant donner des suggestions, il est normal que parfois les suggestions soient fausses, mais lorsqu'elles donnent les bonnes suggestions, cela augmentera l'efficacité de l'utilisateur. C'est pourquoi nous avons initialement publié une version bêta qui, fin janvier de cette année, a été testée par des centaines de clients et nous avons reçu de nombreux retours positifs sur les nouvelles fonctionnalités. Cela rend le personnel du service client plus efficace et augmente les ventes.
Il aide les commerciaux à reformuler le texte, il n'envoie pas seulement automatiquement le texte à l'utilisateur final, il est conçu pour permettre au support client d'accomplir les tâches plus rapidement.
Reid : Une autre fonctionnalité que nous avons intégrée à ChatGPT concerne les extraits de code ? Ce grand modèle de langage est excellent pour traiter le texte existant et générer des résumés d'articles volumineux ou de conversations textuelles. De même, nous avons beaucoup de personnes du support client qui, lorsqu'un client soulève un problème trop complexe pour ChatGPT, doivent renvoyer la conversation au support client, à qui il est souvent demandé de rédiger un résumé de la conversation avec l'utilisateur final. Certains membres du service client affirment que rédiger des résumés et répondre aux conversations des clients prend parfois du temps, mais ils doivent le faire.
Ainsi, cette technologie est excellente pour résumer et résumer le contenu du texte. L'une des fonctionnalités dont nous sommes les plus fiers est cette fonctionnalité de résumé, qui vous donne un résumé d'une conversation en appuyant simplement sur un bouton, qui peut ensuite être modifié et envoyé au client.
Ces fonctionnalités sont conçues pour engager les clients et améliorer continuellement les capacités de ChatGPT. Le support client n’a pas besoin de passer plus de temps à lire l’intégralité de la conversation et à déterminer les principaux points à retenir. Au lieu de cela, ChatGPT extrait les extraits pertinents et le support client doit simplement confirmer.
Ces modèles sont bien meilleurs que ceux que nous avons développés auparavant, mais ils ne sont toujours pas parfaits. Il leur arrive encore parfois de négliger des détails et de ne pas comprendre les choses comme le ferait un personnel de support client qualifié.
Reid : OpenAI nous fournit une API à laquelle nous pouvons envoyer du texte et obtenir du texte à partir de son modèle. Contrairement au passé, la façon dont les gens utilisent réellement cette technologie est de « lui dire » ce qu'ils veulent qu'elle fasse et de lui envoyer un texte, par exemple en résumant la conversation ci-dessous :
Client : « Bonjour, j'ai une question.
Représentant client : "Bonjour, comment puis-je vous aider ?""
Les clients peuvent lui envoyer un SMS directement, incluant ce qu'ils veulent qu'il fasse, et il vous enverra un texte en retour - dans ce cas, il contient désormais une version récapitulative. Ensuite, traitez-la et soumettez-la au support client afin qu'il puisse choisir de l'utiliser ou non
Le client peut l'utiliser pour résumer l'e-mail. Vous trouverez ci-dessous un historique des e-mails précédents qui peut être utilisé pour obtenir des indices sur les e-mails. . Cette fonctionnalité n'était pas disponible dans les langages de programmation précédents, mais il a fallu déployer beaucoup d'efforts pour qu'elle fasse ce que vous vouliez qu'elle fasse. Lorsque vous faites quelque chose, vous devez être très précis pour éviter les erreurs
Reid : Intercom dispose d'une équipe de R&D solide, comme tout logiciel et, comme les entreprises de technologie de service, je dirige l'équipe d'apprentissage automatique, donc la plupart des membres du personnel. L'équipe, y compris moi-même, possède une vaste expérience en matière de formation et de travail avec des modèles d'apprentissage automatique.
Nous avons une équipe interne (succès client) qui les traite comme des clients alpha. Intercom compte environ 100 représentants (succès client), nous leur livrerons donc des prototypes. très rapidement et obtenez leurs commentaires sur le modèle, mais nous ne les utilisons pas pour former des modèles, nous les utilisons simplement comme testeurs alpha pour aider à identifier les problèmes et à déterminer ce qui ne va pas Nous avons beaucoup de travail à faire. , créer un chatbot pour les démos est facile, mais il reste encore beaucoup de travail à faire pour le faire fonctionner dans un environnement de production Pensez-vous que ce produit chatbot sera finalement expédié aux utilisateurs finaux, pour ainsi dire ? , des représentants des clients ?Nous avons eu une excellente démo utilisant ChatGPT et elle a attiré l'attention de tout le monde. Mais il existe des entreprises comme Intercom qui cherchent à faire passer ce jouet d’un objet ayant une réelle valeur commerciale. Même chez Intercom, nous disons : « Nous avons déployé ces fonctionnalités, elles sont sympas et elles semblent utiles, mais elles ne changent pas suffisamment la donne
Je pense que ce sera la prochaine chose que nous allons faire. » développement Une vague de technologie et un cycle de développement plus long. Rien de tout cela n’est aussi simple qu’une intégration rapide. Nous devons approfondir le problème de l'utilisateur, tous les différents aspects et les points d'échec. Beaucoup de nos concurrents et acteurs du secteur résolvent les mêmes problèmes et créent des fonctionnalités encore plus intéressantes.
Nous avons eu un cycle de développement très rapide et avons lancé le chatbot très rapidement et avons reçu d'excellents retours de nos clients qui nous ont aidés à décider où aller ensuite, c'est ma vision réaliste de la situation actuelle.
Il y a beaucoup de battage médiatique autour de ChatGPT en ce moment. Comment gérez-vous cela lorsque vous essayez de réduire les attentes des clients à l'égard de votre produit ?
Reid : Notre stratégie actuelle ici est d'essayer d'être aussi honnête que possible quant à nos attentes. Nous pensons que nous pouvons nous différencier de la vague de battage médiatique en étant honnêtes.
Reid : Intercom compte plus de 25 000 clients. Nous dirions aux clients : « Nous avons des produits bêta. Participerez-vous ? Certains clients se sont inscrits et ont indiqué qu'ils souhaiteraient utiliser les premiers logiciels, mais d'autres ne le feront pas. Certains clients sont des entreprises peu enclines au risque (comme les banques) qui ne souhaitent pas participer au projet test.
Lorsque nous développons un nouveau logiciel, nous leur envoyons un message pour recruter des personnes pour la version bêta. Notre chef de projet a commencé à promouvoir l'événement et c'est tout ce que nous avons fait. Nous avons invité des centaines de clients à tester à la mi-janvier. Une fois que les clients nous ont rejoint, ils utilisent l'API pour traiter les données et nous leur ouvrons ces fonctions.
Ensuite, nous commençons à examiner la télémétrie le lendemain et voyons où les clients l'utilisent et est-ce que cela fonctionne pour eux ? Et puis, c'est ainsi que nous effectuons généralement des tests chez Intercom, nous les contactons et leur disons : « Pouvons-nous vouloir vos commentaires ? ? Nous aimerions connaître vos devis. "Certains clients nous ont fait parvenir de véritables devis au bout de quelques semaines, que nous avons ensuite publiés sur le blog.
Nous voulons nous démarquer de tout le battage médiatique. De nombreuses startups utilisent généralement l'apparence de ChapGPT et créent simplement une page de destination. Et nous avons en fait des produits comme ChapGPT et publions de véritables devis de clients sur notre site Web, et c'est vraiment réel.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!