Heim >Technologie-Peripheriegeräte >KI >Im Bereich Kundenservice haben Änderungen im Zusammenhang mit ChatGPT begonnen
In den letzten Jahren haben immer mehr Unternehmen Technologien der künstlichen Intelligenz eingeführt, um Contact Center zu automatisieren und Millionen von Kundenanrufen, Chats und Textnachrichten zu bearbeiten. Jetzt werden die überlegenen Kommunikationsfähigkeiten von ChatGPT mit Schlüsselfunktionen zusammengeführt, die in geschäftsspezifische Systeme wie interne Wissensdatenbanken und CRMs integriert sind.
Die Anwendung von Large-Scale-Language-Modellen (LLM) kann automatisierte Contact Center verbessern, sodass sie Kundenanfragen von Anfang bis Ende wie einen menschlichen Kundenservice bearbeiten können, und hat bemerkenswerte Ergebnisse erzielt. Wenn andererseits immer mehr Kunden auf die menschenähnlichen Funktionen von ChatGPT aufmerksam werden, können Sie sich vorstellen, dass sie zunehmend frustriert über veraltete Systeme werden, bei denen sie oft 45 Minuten auf die Aktualisierung ihrer Kreditkarteninformationen warten müssen.
Aber hab keine Angst. Auch wenn der Einsatz von KI zur Lösung von Kundenproblemen für Early Adopters veraltet erscheinen mag, ist der Zeitpunkt tatsächlich perfekt.
Die Zufriedenheit in der Kundendienstbranche ist aufgrund fehlender Sitzplätze und erhöhter Nachfrage auf den niedrigsten Stand seit Jahrzehnten gesunken. Der Aufstieg von LLM wird künstliche Intelligenz zwangsläufig zu einem zentralen Thema für jede Vorstandsetage machen, die versucht, die Kundenbindung wiederherzustellen.
Unternehmen, die auf teure Outsourcing-Optionen umgestiegen sind oder Contact Center ganz abgeschafft haben, sehen plötzlich einen nachhaltigen Weg nach vorn.
Der Bauplan ist gezeichnet. KI kann dazu beitragen, drei Hauptziele eines Callcenters zu erreichen: Kundenprobleme bereits beim ersten Klingeln zu lösen, die Gesamtkosten zu senken und die Belastung der Agenten zu verringern (und dadurch die Agentenbindung zu erhöhen).
In den letzten Jahren haben Contact Center auf Unternehmensebene künstliche Intelligenz eingesetzt, um ihre häufigsten Anfragen zu bearbeiten (z. B. Abrechnung, Kontoverwaltung und sogar ausgehende Anrufe), und dieser Trend wird sich voraussichtlich auch im Jahr 2023 fortsetzen.
Auf diese Weise konnten sie Wartezeiten verkürzen, ihren Agenten die Möglichkeit geben, sich auf umsatzgenerierende oder wertschöpfende Anrufe zu konzentrieren, und sich von veralteten Strategien befreien, die darauf abzielten, Kunden von Agenten und Lösungen abzuschrecken.
All dies kann zu Kosteneinsparungen führen, und Gartner prognostiziert, dass der Einsatz künstlicher Intelligenz die Contact-Center-Kosten bis 2026 um mehr als 80 Milliarden US-Dollar senken wird.
LLM wird auf riesigen öffentlichen Datensätzen trainiert. Dieses umfassende Wissen über die Welt eignet sich gut für den Kundenservice. Sie sind in der Lage, die tatsächlichen Bedürfnisse eines Kunden genau zu verstehen, unabhängig von der Art und Weise, wie der Anrufer sie spricht oder präsentiert.
LLM wurde in die bestehende Automatisierungsplattform integriert, wodurch die Fähigkeit der Plattform, unstrukturierte menschliche Gespräche zu verstehen, effektiv verbessert und gleichzeitig das Auftreten von Fehlern reduziert wird. Dies führt zu besseren Lösungsraten, weniger Gesprächsschritten, kürzeren Anrufzeiten und einem geringeren Bedarf an einem Agenten.
Kunden können mit dem Gerät in beliebigen natürlichen Sätzen sprechen, beispielsweise mehrere Fragen stellen, das Gerät warten lassen oder Informationen per SMS senden. Eine wesentliche Verbesserung von LLM ist die verbesserte Anruflösung, sodass mehr Kunden die Antworten erhalten, die sie benötigen, ohne mit einem Agenten sprechen zu müssen.
LLM reduziert außerdem den Zeitaufwand für die Anpassung und Bereitstellung künstlicher Intelligenz erheblich. Mit der richtigen API kann ein Contact Center mit wenig Personal innerhalb weniger Wochen eine Lösung zum Laufen bringen, ohne künstliche Intelligenz manuell trainieren zu müssen, um die verschiedenen Anfragen eines Kunden zu verstehen.
Kontaktzentren stehen vor großen Herausforderungen und müssen gleichzeitig strenge SLA-Metriken einhalten und die Anrufdauer auf ein Minimum beschränken. Mit LLM können sie nicht nur mehr Anrufe entgegennehmen, sondern auch Probleme durchgängig lösen.
Während LLM beeindruckend ist, gibt es auch viele dokumentierte Fälle von unangemessenen Antworten und „Halluzinationen“ – bei denen die Maschine nicht weiß, was sie sagen soll, sondern die Antwort erfindet.
Für Unternehmen ist dies der Hauptgrund, warum LLMs wie ChatGPT keine direkte Verbindung zu Kunden herstellen, geschweige denn diese in bestimmte Geschäftssysteme, Regeln und Plattformen integrieren können.
Bestehende KI-Plattformen wie Dialpad, Replicant und Five9 bieten Contact Centern Schutzmaßnahmen, um die Leistungsfähigkeit von LLM besser zu nutzen und gleichzeitig das Risiko zu reduzieren. Diese Lösungen entsprechen den SOC2-, HIPAA- und PCI-Standards, um maximalen Schutz der persönlichen Daten der Kunden zu gewährleisten.
Und da Konversationen speziell für jeden Anwendungsfall konfiguriert werden, können Contact Center jedes von ihren Maschinen gesprochene oder geschriebene Wort kontrollieren, wodurch die Notwendigkeit einer sofortigen Eingabe (d. h. Situationen, in denen Benutzer versuchen, das LLM „auszutricksen“) und unvorhersehbare Risiken entfallen.
In der sich schnell verändernden Welt der künstlichen Intelligenz müssen Contact Center mehr Technologielösungen bewerten als je zuvor.
Die Erwartungen der Kunden steigen und Dienste auf ChatGPT-Niveau werden bald zum universellen Standard. Alle Anzeichen deuten darauf hin, dass der Kundenservice einer der Sektoren ist, der am meisten von den vergangenen technologischen Revolutionen profitiert hat.
Das obige ist der detaillierte Inhalt vonIm Bereich Kundenservice haben Änderungen im Zusammenhang mit ChatGPT begonnen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!