近年来,越来越多的企业采用人工智能技术来自动化联络中心,以处理数百万客户的电话、聊天和短信。现在,ChatGPT的卓越沟通技巧正在与集成到业务特定系统例如内部知识库和CRM的关键能力相融合。
大规模语言模型(LLM)的应用可以增强自动化联系中心,使其能够像人工客服一样,从头到尾地解决客户请求,并已经取得了显著的成效。另一方面,随着越来越多的客户意识到ChatGPT的类人的功能,可以想象他们会开始对传统系统感到更加沮丧,这些传统系统往往需要他们等待45分钟才能更新其信用卡信息。
但不要害怕。虽然对早期采用者来说,使用人工智能来解决客户问题似乎已经过时了,但实际上,时机刚刚好。
客户服务行业的满意度已降至几十年来的最低水平,原因是座位不足和需求增加。LLM的兴起势必使得人工智能成为每个试图重建客户忠诚度的董事会的核心议题。
那些转向昂贵的外包选择、或完全取消联络中心的企业突然间看到了一条可持续发展的道路。
蓝图已经画好。人工智能可以帮助实现呼叫中心的三个主要目标:在第一个环上解决客户问题,降低总体成本,减少座席的负担(并通过这样做增加座席的保留率)。
在过去几年里,企业级联络中心已经部署了人工智能来处理他们最常见的请求(例如,计费、账户管理,甚至呼出呼叫),而且这一趋势似乎将在2023年继续下去。
通过这样做,他们已经能够减少等待时间,使他们的座席能够专注于创收或增值电话,并从旨在使客户远离座席和解决方案的过时策略中解脱出来。
所有这些都可以节省成本,Gartner预测称,到2026年,人工智能的部署将使联络中心的成本降低800多亿美元。
LLM是在大量的公共数据集上训练的。这种对世界的广泛了解非常适合客户服务。他们能够准确地理解客户的实际需求,不受来电者话语方式或表述方式的影响。
LLM已被整合进现有的自动化平台中,有效提升了平台理解非结构化人类对话的能力,同时减少了错误的出现。这将带来更好的解决率、更少的对话步骤、更短的呼叫时间和更少的座席需求。
顾客可以用任意自然的句子与机器对话,包括提出多个问题,要求机器等待或通过文本发送信息。LLM的一个重要改进在于改进了呼叫解决方案,在不需要与座席交谈的情况下,让更多的客户得到了他们所需的答案。
LLM还大大减少了定制和部署人工智能所需的时间。有了合适的API,一个人手不足的联络中心可以在几周内启动并运行一个解决方案,而不必手动训练人工智能来了解客户可能提出的各种请求。
联系中心面临着巨大的挑战,必须同时满足严格的SLA指标并将呼叫持续时间保持在最低水平。有了LLM,他们不仅能接听更多的电话,还能端到端解决问题。
虽然LLM给人留下了深刻的印象,但也有很多记录在案的不恰当的回答和“幻觉”案例——在机器不知道该说什么的情况下,它会编造答案。
对于企业来说,这就是为什么像ChatGPT这样的LLM不能直接与客户连接的首要原因,更不用说将其与特定的业务系统、规则和平台集成。
现有的人工智能平台,如Dialpad、Replicant和Five9,正在为联络中心提供防护机制,以更好地利用LLM的力量,同时降低风险。这些方案符合SOC2、HIPAA和PCI标准,以确保客户的个人信息获得最大限度的保护。
而且,由于对话是针对每个用例专门配置的,联络中心可以控制他们的机器所说或写的每个单词,从而消除了由于提示输入(即用户试图“欺骗”LLM的情况)而导致的不可预测的风险。
在快速变化的人工智能世界中,联络中心比以往任何时候都有更多的技术解决方案需要评估。
客户的期望正在提高,ChatGPT 级别的服务将很快成为普遍标准。所有的迹象都表明,客户服务将成为那些在过去的技术革命中一直被忽视的行业中最受益的一方。
以上是在客户服务领域,和ChatGPT有关的变革已经开始的详细内容。更多信息请关注PHP中文网其他相关文章!