Maison  >  Article  >  Périphériques technologiques  >  Souhaitez-vous vous ouvrir à un thérapeute en IA ?

Souhaitez-vous vous ouvrir à un thérapeute en IA ?

王林
王林avant
2023-05-02 21:28:05878parcourir

Nous nous tournons de plus en plus vers des assistants vocaux intelligents ou des chatbots sur les sites Web et les applications pour répondre aux questions.

Souhaitez-vous vous ouvrir à un thérapeute en IA ?

À mesure que ces systèmes alimentés par des logiciels d'intelligence artificielle (IA) deviennent de plus en plus sophistiqués, ils commencent à fournir des réponses assez bonnes et détaillées.

Mais un tel chatbot sera-t-il un thérapeute aussi efficace qu’un humain ?

La programmeuse informatique Eugenia Kuyda est la fondatrice de l'application de chatbot basée aux États-Unis Replika, qui affirme offrir aux utilisateurs un "compagnon IA attentionné, toujours là pour écouter et parler, toujours à vos côtés".

Il a été lancé en 2017 et compte actuellement plus de 2 millions d'utilisateurs actifs. Chaque personne dispose d'un chatbot ou d'une « réplique » qui lui est unique, à mesure que l'IA apprend de ses conversations. Les utilisateurs peuvent également concevoir leur propre avatar de dessin animé pour leur chatbot.

Mme Kuyda a déclaré que les personnes utilisant l'application allaient des enfants autistes (comme moyen de « se réchauffer avant d'interagir avec les gens ») aux adultes qui étaient simplement seuls et avaient besoin d'amis.

D'autres utilisent Replika pour s'entraîner aux entretiens d'embauche, parler de politique et même servir de conseiller matrimonial.

Bien que l'application soit principalement conçue pour être un ami ou un compagnon, elle prétend également qu'elle peut aider à améliorer votre santé mentale, par exemple en permettant aux utilisateurs de « prendre de meilleures habitudes et de réduire leur anxiété ».

Selon l'Organisation mondiale de la santé (OMS), près d'un milliard de personnes dans le monde souffrent de troubles mentaux, soit plus d'un dixième de la population mondiale.

L'Organisation mondiale de la santé ajoute que « seule une petite proportion de personnes dans le besoin ont accès à des services de santé mentale efficaces, abordables et de qualité ».

Alors que toute personne préoccupée par elle-même ou par un proche devrait d'abord consulter un médecin, la croissance des thérapeutes en santé mentale chatbot pourrait apporter un soutien bienvenu à de nombreuses personnes.

Le Dr Paul Marsden, membre de la British Psychological Society, a déclaré que les applications visant à améliorer la santé mentale peuvent aider, mais seulement si vous trouvez la bonne application, et seulement de manière limitée.

« Quand j'ai regardé, il y avait 300 applications juste pour l'anxiété… alors comment savoir laquelle utiliser

« Elles ne devraient être considérées que comme un complément à la thérapie en personne ? Le consensus est que les applications ne remplaceront pas les traitements humains. "

Dans le même temps, cependant, le Dr Marsden s'est dit enthousiasmé par le pouvoir de l'intelligence artificielle pour rendre les chatbots thérapeutiques plus efficaces. "Le soutien en santé mentale est basé sur la thérapie par la parole, et tout ce que les chatbots font, c'est parler", a-t-il déclaré.

Le Dr Marsden a souligné le fait que les principales sociétés de chatbots IA, telles que OpenAI, la société à l'origine du récent très médiatisé ChatGPT, ouvrent leur technologie à d'autres entreprises

Cela, a-t-il dit, permet des applications de santé mentale. utilisent la meilleure intelligence artificielle pour alimenter leurs chatbots « avec ses riches connaissances, ses capacités de raisonnement toujours croissantes et ses compétences de communication compétentes ». Replika est l'un de ces fournisseurs qui utilise déjà la technologie OpenAI

Mais que se passe-t-il si la relation d'une personne avec son thérapeute chatbot. devient malsain ? Replika a fait la une des journaux en février lorsqu'il a été révélé que certains utilisateurs avaient eu des conversations explicites avec leur chatbot

Ces reportages surviennent après que Luka, la société derrière Replika, a mis à jour son système d'intelligence artificielle pour empêcher de tels échanges sexuels

.

Tous les utilisateurs n'étaient pas satisfaits du changement, a écrit l'un d'entre eux sur Reddit : "Les gens de la solitude. Ils ont trouvé refuge, ont guéri grâce à l'intimité et ont soudainement découvert que c'était artificiel, non pas parce qu'il s'agissait d'une intelligence artificielle, mais parce qu'il était contrôlé par des humains. "

La décision de Luca pourrait être liée au fait qu'en février également, l'agence italienne de protection des données lui a interdit d'utiliser les données personnelles des Italiens.

Le régulateur italien a affirmé que l'application était utilisée par des personnes de moins de 18 ans. et qu'ils n'ont reçu "absolument aucune réponse adaptée à leur âge". Il a ajouté que l'application pourrait également "augmenter la vulnérabilité au risque des personnes qui sont encore dans leur stade de développement ou dans leur état émotionnel". L'Italie, alors que Luka le pouvait, a été condamnée à une amende. Elle a déclaré qu'elle « travaillait en étroite collaboration avec les régulateurs italiens et que les conversations progressaient activement »

La militante britannique pour la protection de la vie privée en ligne, Jen Persson, a déclaré qu'une réglementation plus mondiale des thérapeutes chatbots était nécessaire

Elle a déclaré : « Si le produit d’une entreprise d’IA prétend identifier ou soutenir la santé mentale, ou est conçu pour affecter votre état émotionnel ou votre santé mentale, il doit être classé comme produit de santé et respecter les normes de qualité et de sécurité en conséquence. » Mme Kuyda considère Replika comme un compagnon, comme un animal de compagnie, plutôt que comme un outil de santé mentale. Cela ne devrait pas être considéré comme un substitut à l’aide d’un thérapeute humain, a-t-elle ajouté.

«La thérapie de la vie réelle offre un aperçu incroyable de la psyché humaine, non seulement à travers des mots ou des mots, mais en vous voyant de première main, en voyant votre langage corporel, vos réponses émotionnelles et en comprenant votre histoire, une compréhension étrange», a-t-elle déclaré.

Le PDG de Headspace, Russell Glass, affirme que son application restera axée sur la communication interhumaine.

D'autres applications dans le domaine de la santé mentale ont été beaucoup plus prudentes quant à l'utilisation de l'intelligence artificielle en premier lieu. L’une d’elles est l’application de méditation Headspace, qui compte plus de 30 millions d’utilisateurs et est approuvée par le NHS au Royaume-Uni.

« Nos convictions fondamentales chez Headspace Health et l'ensemble de notre modèle commercial sont ancrés dans des soins centrés sur la personne – les liens que nos membres établissent grâce à des conversations en direct avec des coachs et des thérapeutes par chat, vidéo ou en personne sont irremplaçables », a déclaré Russell Glass, directeur de Headspace.

Il a ajouté que même si Headspace utilise une certaine intelligence artificielle, il le fait de manière "très sélective" tout en maintenant une "profondeur d'engagement humain". La société n'utilise pas l'IA pour discuter avec les utilisateurs, et M. Glass a déclaré qu'elle ne l'utilise que pour des choses comme donner aux utilisateurs des recommandations de contenu personnalisées ou aider les prestataires de soins à rédiger des notes.

Cependant, le Dr Marsden affirme que les chatbots thérapeutiques basés sur l'IA ne feront que continuer à s'améliorer. « La nouvelle technologie de chatbot IA semble développer des compétences nécessaires à un soutien efficace en matière de santé mentale, notamment l'empathie et la compréhension du fonctionnement de l'esprit humain », a-t-il déclaré.

Ses commentaires font suite à une étude récente de l'Université Cornell dans l'État de New York qui a mené une série de tests sur ChatGPT pour voir dans quelle mesure les gens comprenaient que les autres pouvaient avoir des idées différentes. Le score de l'IA est équivalent à celui d'un enfant de neuf ans.

Auparavant, on pensait que ce type d’empathie cognitive était propre aux humains.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration:
Cet article est reproduit dans:. en cas de violation, veuillez contacter admin@php.cn Supprimer