我们越来越多地转向智能语音助手或网站和应用程序上的聊天机器人来回答问题。
随着这些由人工智能 (AI) 软件提供支持的系统变得越来越复杂,它们开始提供相当不错、详细的答案。
但是,这样的聊天机器人是否会像人类一样成为有效的治疗师?
计算机程序员 Eugenia Kuyda 是美国聊天机器人应用程序 Replika 的创始人,该应用程序称它为用户提供了“关心他人的 AI 伴侣,总是在这里聆听和交谈,总是在你身边”。
它于 2017 年推出,目前拥有超过 200 万活跃用户。随着人工智能从他们的对话中学习,每个人都有一个他们独有的聊天机器人或“复制品”。用户还可以为他们的聊天机器人设计自己的卡通头像。
Kuyda 女士说,使用该应用程序的人群包括自闭症儿童(将其作为“人际交往前热身”的一种方式),以及单纯孤独且需要朋友的成年人。
据说其他人使用 Replika 来练习求职面试、谈论政治,甚至作为婚姻顾问。
虽然该应用程序的主要设计目的是成为朋友或伴侣,但它也声称它可以帮助您改善心理健康,例如让用户“养成更好的习惯并减少焦虑”。
根据世界卫生组织 (WHO) 的数据,全世界有近 10 亿人患有精神障碍,超过全球十分之一的人口。
世界卫生组织补充说,“只有一小部分有需要的人能够获得有效、负担得起和优质的精神保健服务”。
虽然任何关心自己或亲属的人都应该首先去看医生,但聊天机器人心理健康治疗师的成长可能会为很多人提供一些受欢迎的支持。
英国心理学会成员保罗马斯登博士说,旨在改善心理健康的应用程序可以提供帮助,但前提是你找到合适的应用程序,而且只能以有限的方式提供帮助。
“当我看的时候,有 300 个应用程序只是为了焦虑……那么你怎么知道应该使用哪一个呢?
“它们只应被视为面对面治疗的补充。共识是应用程序不会取代人类治疗。”
然而与此同时,马斯登博士表示,他对人工智能使治疗聊天机器人更有效的力量感到兴奋。“心理健康支持基于谈话疗法,而聊天机器人所做的就是谈话,”他说。
马斯登博士强调了一个事实,即领先的 AI 聊天机器人公司,例如最近引人注目的 ChatGPT背后的公司 OpenAI ,正在向其他公司开放他们的技术。
他说,这使得心理健康应用程序能够使用最好的人工智能,“凭借其丰富的知识、不断增强的推理能力和熟练的沟通技巧”来为他们的聊天机器人提供动力。Replika 就是这样一个已经在使用 OpenAI 技术的供应商。
但是,如果一个人与他们的聊天机器人治疗师的关系变得不健康怎么办?Replika 在 2 月份成为头条新闻,当时有消息称一些用户一直在与他们的聊天机器人进行明确的对话。
这些新闻报道是在 Replika 背后的公司 Luka 更新其人工智能系统以防止此类性交流之后出现的。
并非所有用户都对这一变化感到高兴。一位在 Reddit 上写道:“人们从孤独中找到了避难所,通过亲密来治愈,突然发现它是人造的,不是因为它是人工智能,而是因为它是由人控制的。”
卢卡此举可能与同样在2月份,意大利数据保护机构禁止其使用意大利人的个人数据有关。
意大利监管机构声称该应用程序被 18 岁以下的人使用,他们得到“绝对不适合他们年龄的回复”。它补充说,该应用程序还可能“增加仍处于发育阶段或情绪状态的个人的风险脆弱性”。
此举可能会限制 Replika 在意大利的使用,而 Luka 可能会被罚款。它表示它“正在与意大利监管机构密切合作,对话正在积极推进”。
英国在线隐私活动家 Jen Persson 表示,需要对聊天机器人治疗师进行更多的全球监管。
她说:“如果 AI 公司的产品声称可以识别或支持心理健康,或者旨在影响您的情绪状态或心理健康,则应归类为健康产品,并相应地遵守质量和安全标准。”
Kuyda 女士认为 Replika 是一个伴侣,就像拥有一只宠物,而不是一种心理健康工具。她补充说,不应将其视为人类治疗师帮助的替代品。
“现实生活疗法提供了对人类心理的不可思议的洞察力,这不仅仅是通过文字或文字,而是通过亲眼看到你,看到你的肢体语言、你的情绪反应以及对你的历史的不可思议的了解,”她说。
Headspace 的首席执行官 Russell Glass 表示,其应用程序的重点仍将是人与人之间的交流
心理健康领域的其他应用程序首先对使用人工智能要谨慎得多。其中之一是冥想应用程序 Headspace,它拥有超过 3000 万用户,并且在英国获得了 NHS 的批准。
“我们在 Headspace Health 的核心信念和整个商业模式都植根于以人为本和以人为本的护理——我们的会员通过聊天、视频或面对面与教练和治疗师进行现场对话所建立的联系是不可替代的,”Headspace 的负责人说执行官拉塞尔·格拉斯。
他补充说,虽然 Headspace 确实使用了一些人工智能,但它是“高度选择性地”使用的,同时保持了“人类参与的深度”。该公司不使用 AI 与用户聊天,Glass 先生表示,它仅将其用于为用户提供个性化内容推荐,或协助人类护理提供者写笔记等事情。
然而,马斯登博士表示,人工智能驱动的治疗聊天机器人只会继续变得更好。“新的人工智能聊天机器人技术似乎正在发展有效心理健康支持的技能,包括同理心和对人类思维运作方式的理解,”他说。
他的评论是在纽约州康奈尔大学最近的一项研究之后发表的,该研究对 ChatGPT 进行了一系列测试,以了解人们对他人可能有不同想法的理解程度。人工智能的分数相当于一个九岁孩子的分数。
以前,这种认知同理心被认为是人类独有的。
以上是你愿意向人工智能治疗师敞开心扉吗?的详细内容。更多信息请关注PHP中文网其他相关文章!