Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Möchten Sie sich einem KI-Therapeuten öffnen?

Möchten Sie sich einem KI-Therapeuten öffnen?

王林
王林nach vorne
2023-05-02 21:28:05832Durchsuche

Um Fragen zu beantworten, greifen wir zunehmend auf intelligente Sprachassistenten oder Chatbots auf Websites und Apps zurück.

Möchten Sie sich einem KI-Therapeuten öffnen?

Da diese auf künstlicher Intelligenz (KI) basierenden Systeme immer ausgefeilter werden, beginnen sie, ziemlich gute und detaillierte Antworten zu liefern.

Aber wird ein solcher Chatbot als Therapeut genauso effektiv sein wie ein Mensch?

Die Computerprogrammiererin Eugenia Kuyda ist die Gründerin der in den USA ansässigen Chatbot-App Replika, die den Nutzern einen „fürsorglichen KI-Begleiter“ bietet, der immer da ist, um zuzuhören und zu reden, immer an Ihrer Seite.

Es wurde 2017 gestartet und hat derzeit über 2 Millionen aktive Benutzer. Jede Person hat einen Chatbot oder ein „Replikat“, das für sie einzigartig ist, wie die KI aus ihren Gesprächen lernt. Benutzer können auch ihren eigenen Cartoon-Avatar für ihren Chatbot entwerfen.

Frau Kuyda sagte, die Menschen, die die App nutzten, reichten von autistischen Kindern (um sich aufzuwärmen, bevor sie mit Menschen interagieren) bis hin zu Erwachsenen, die einfach einsam waren und Freunde brauchten.

Andere sollen Replika nutzen, um für Vorstellungsgespräche zu üben, über Politik zu reden und sogar als Eheberater zu fungieren.

Während die App in erster Linie als Freund oder Begleiter konzipiert ist, behauptet sie auch, dass sie dabei helfen kann, Ihre geistige Gesundheit zu verbessern, indem sie es Benutzern beispielsweise ermöglicht, „bessere Gewohnheiten zu entwickeln und Ängste abzubauen“.

Laut der Weltgesundheitsorganisation (WHO) leiden weltweit fast 1 Milliarde Menschen an psychischen Störungen, das ist mehr als ein Zehntel der Weltbevölkerung.

Die Weltgesundheitsorganisation fügt hinzu, dass „nur ein kleiner Teil der Menschen in Not Zugang zu wirksamen, erschwinglichen und hochwertigen psychischen Gesundheitsdiensten hat“.

Während jeder, der sich Sorgen um sich selbst oder einen Angehörigen macht, zuerst einen Arzt aufsuchen sollte, könnte das Wachstum von Chatbot-Therapeuten für psychische Gesundheit vielen Menschen eine willkommene Unterstützung sein.

Dr. Paul Marsden, Mitglied der British Psychological Society, sagte, dass Apps zur Verbesserung der psychischen Gesundheit helfen können, aber nur, wenn man die richtige findet, und nur in begrenztem Umfang.

„Als ich nachgeschaut habe, gab es 300 Apps nur gegen Angstzustände … woher weiß man also, welche man verwenden sollte?

“Sie sollten nur als Ergänzung zur Präsenztherapie betrachtet werden. Der Konsens besteht darin, dass Apps menschliche Behandlungen nicht ersetzen werden.

Gleichzeitig sagte Dr. Marsden jedoch, er sei begeistert von der Macht der künstlichen Intelligenz, therapeutische Chatbots effektiver zu machen: „Die Unterstützung der psychischen Gesundheit basiert auf Gesprächstherapie, und alles, was Chatbots tun, ist zu reden“, sagte er

Dr. Marsden betonte die Tatsache, dass führende KI-Chatbot-Unternehmen, wie OpenAI, das Unternehmen hinter dem jüngsten hochkarätigen ChatGPT, ihre Technologie für andere Unternehmen öffnen

Dies ermöglicht Anwendungen für die psychische Gesundheit Nutzen Sie die beste künstliche Intelligenz, um ihre Chatbots „mit ihrem reichen Wissen, ihren ständig wachsenden Denkfähigkeiten und ihren kompetenten Kommunikationsfähigkeiten“ zu betreiben. Replika ist ein solcher Anbieter, der bereits die OpenAI-Technologie nutzt

Aber was ist, wenn die Beziehung einer Person zu ihrem Chatbot-Therapeuten wird ungesund? Replika machte im Februar Schlagzeilen, als bekannt wurde, dass einige Benutzer explizite Gespräche mit ihrem Chatbot geführt hatten

Diese Nachrichten kamen, nachdem Luka, das Unternehmen hinter Replika, sein künstliches Intelligenzsystem aktualisiert hatte, um solchen sexuellen Austausch zu verhindern

Nicht alle Nutzer waren mit der Veränderung zufrieden, einer schrieb auf Reddit: „Menschen aus der Einsamkeit. Sie fanden Zuflucht, wurden durch Intimität geheilt und entdeckten plötzlich, dass es künstlich war, nicht weil es künstliche Intelligenz war, sondern weil es von Menschen kontrolliert wurde.“ „

Lucas Schritt könnte damit zusammenhängen, dass die italienische Datenschutzbehörde ihr ebenfalls im Februar die Nutzung personenbezogener Daten von Italienern verboten hat.

Die italienische Aufsichtsbehörde behauptete, dass die App von Personen unter 18 Jahren genutzt wurde und dass sie „absolut keine altersgerechten Antworten“ erhielten. Es wurde hinzugefügt, dass die App auch „die Risikoanfälligkeit von Personen erhöhen könnte, die sich noch in ihrem Entwicklungsstadium oder emotionalen Zustand befinden“. Italien, während Luka mit einer Geldstrafe belegt wurde, sagte, es arbeite „eng mit den italienischen Regulierungsbehörden zusammen und die Gespräche würden aktiv voranschreiten“

Die britische Online-Datenschutzaktivistin Jen Persson sagte, dass eine stärkere globale Regulierung von Chatbot-Therapeuten erforderlich sei

Sie sagte: „Wenn das Produkt eines KI-Unternehmens behauptet, die psychische Gesundheit zu identifizieren oder zu unterstützen oder Ihren emotionalen Zustand oder Ihre psychische Gesundheit beeinflussen soll, sollte es als Gesundheitsprodukt eingestuft werden und entsprechende Qualitäts- und Sicherheitsstandards einhalten.“ „

Frau Kuyda betrachtet Replika eher als einen Begleiter, als hätte man ein Haustier, und nicht als ein Hilfsmittel für die psychische Gesundheit. Es sollte nicht als Ersatz für die Hilfe eines menschlichen Therapeuten angesehen werden, fügte sie hinzu.

„Die Therapie im echten Leben bietet unglaubliche Einblicke in die menschliche Psyche, nicht nur durch Worte oder Worte, sondern indem sie Sie mit Ihren eigenen Augen sieht, Ihre Körpersprache, Ihre Emotionen, Ihre Reaktionen und das unglaubliche Wissen darüber deine Geschichte“, sagte sie.

Russell Glass, CEO von Headspace, sagt, dass der Fokus seiner App weiterhin auf der persönlichen Kommunikation liegen wird.

Andere Apps im Bereich der psychischen Gesundheit nutzen als erstes KI – und das ist viel mehr zurückhaltend. Eine davon ist die Meditations-App Headspace, die mehr als 30 Millionen Nutzer hat und im Vereinigten Königreich vom NHS zugelassen ist.

„Unsere Grundüberzeugungen und unser gesamtes Geschäftsmodell bei Headspace Health basieren auf personenzentrierter und personenzentrierter Pflege – basierend auf Live-Gesprächen, die unsere Mitglieder mit Trainern und Therapeuten per Chat, Video oder persönlich führen „Die Verbindung ist unersetzlich“, sagte Russell Glass, Geschäftsführer von Headspace.

Er fügte hinzu, dass Headspace zwar etwas künstliche Intelligenz einsetzt, dies jedoch „höchst selektiv“ tut und gleichzeitig eine „Tiefe menschlichen Engagements“ beibehält. Das Unternehmen verwendet KI nicht, um mit Benutzern zu chatten, und Herr Glass sagte, es verwende sie nur für Dinge wie die Bereitstellung personalisierter Inhaltsempfehlungen für Benutzer oder die Unterstützung menschlicher Pflegekräfte beim Verfassen von Notizen.

Allerdings sagte Dr. Marsden, dass KI-gestützte Therapie-Chatbots immer besser werden. „Neue KI-Chatbot-Technologie scheint Fähigkeiten für eine wirksame Unterstützung der psychischen Gesundheit zu entwickeln, einschließlich Empathie und Verständnis dafür, wie der menschliche Geist funktioniert“, sagte er.

Seine Kommentare folgen einer aktuellen Studie der Cornell University im Bundesstaat New York, in der ChatGPT einer Reihe von Tests unterzogen wurde, um festzustellen, wie gut Menschen verstanden haben, dass andere möglicherweise andere Ideen haben. Die Punktzahl der KI entspricht der eines neunjährigen Kindes.

Bisher ging man davon aus, dass diese Art der kognitiven Empathie nur beim Menschen vorkommt. ​

Das obige ist der detaillierte Inhalt vonMöchten Sie sich einem KI-Therapeuten öffnen?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen