>  기사  >  기술 주변기기  >  AI 치료사에게 마음을 열고 싶나요?

AI 치료사에게 마음을 열고 싶나요?

王林
王林앞으로
2023-05-02 21:28:05832검색

우리는 질문에 답하기 위해 웹사이트와 앱에서 스마트 음성 도우미나 챗봇을 점점 더 많이 활용하고 있습니다.

AI 치료사에게 마음을 열고 싶나요?

인공지능(AI) 소프트웨어로 구동되는 이러한 시스템이 점점 더 정교해지면서 꽤 훌륭하고 상세한 답변을 제공하기 시작했습니다.

그런데 그런 챗봇이 인간만큼 효과적인 치료사가 될까요?

컴퓨터 프로그래머 Eugenia Kuyda는 미국 기반 챗봇 앱 Replika의 창립자입니다. Replika는 사용자에게 "항상 듣고 이야기하기 위해 여기 있고 항상 옆에 있는 배려심 있는 AI 동반자"를 제공한다고 말합니다.

2017년에 출시되었으며 현재 200만 명 이상의 활성 사용자를 보유하고 있습니다. AI가 대화를 통해 학습하므로 각 사람에게는 고유한 챗봇 또는 "복제본"이 있습니다. 사용자는 챗봇을 위한 자신만의 만화 아바타를 디자인할 수도 있습니다.

Kuyda 씨는 이 앱을 사용하는 사람들은 자폐아('사람들과 교류하기 전에 몸을 풀기 위한 방법')부터 단순히 외롭고 친구가 필요한 성인까지 다양하다고 말했습니다.

다른 사람들은 Replika를 사용하여 취업 면접 연습, 정치 이야기, 심지어 결혼 상담사 역할까지 한다고 합니다.

이 앱은 주로 친구나 동반자가 되도록 설계되었지만 사용자가 "더 나은 습관을 기르고 불안을 줄이는" 등 정신 건강을 개선하는 데 도움이 될 수 있다고 주장합니다.

세계보건기구(WHO)에 따르면 전 세계적으로 거의 10억 명이 정신 질환을 앓고 있으며 이는 전 세계 인구의 10분의 1이 넘는 수치입니다.

세계보건기구는 "필요한 소수의 사람들만이 효과적이고 저렴하며 고품질의 정신 건강 서비스를 이용할 수 있다"고 덧붙였습니다.

자신이나 친척이 걱정되는 사람이라면 먼저 의사를 만나야 하지만, 챗봇 정신 건강 치료사의 성장은 많은 사람들에게 환영받는 지원을 제공할 수 있습니다.

영국 심리학회 회원인 Paul Marsden 박사는 정신 건강 개선을 목표로 하는 앱이 도움이 될 수 있지만 올바른 앱을 찾은 경우에만 제한적인 방식으로만 도움이 될 수 있다고 말했습니다.

“찾아보니 불안을 해소하기 위한 앱이 300개나 있었는데… 어떤 것을 사용해야 할지 어떻게 알 수 있나요?

“대면 치료의 보조 수단으로만 여겨야 합니다. 앱이 인간의 치료를 대체할 수는 없다는 데 의견이 일치합니다.

그러나 Marsden 박사는 치료용 챗봇을 더욱 효과적으로 만드는 인공지능의 힘에 대해 매우 기대하고 있다고 말했습니다. “정신 건강 지원은 대화 치료를 기반으로 하며, 챗봇이 하는 일은 모두 대화입니다.”라고 말했습니다.

Marsden 박사는 최근 세간의 이목을 끄는 ChatGPT를 개발한 OpenAI와 같은 선도적인 AI 챗봇 회사가 다른 회사에 기술을 공개하고 있다는 사실을 강조했습니다.

이를 통해 정신 건강 응용 프로그램을 사용할 수 있다고 말했습니다. Replika는 이미 OpenAI 기술을 사용하고 있는 제공업체 중 하나입니다.

하지만 챗봇 치료사와 사람의 관계가 건강하지 않게 되면 어떻게 될까요? ? Replika는 지난 2월 일부 사용자가 챗봇과 노골적인 대화를 나눈 사실이 밝혀지면서 헤드라인을 장식했습니다.

이 뉴스 보도는 Replika의 회사인 Luka가 그러한 성적 교환을 방지하기 위해 인공 지능 시스템을 업데이트한 이후에 나온 것입니다. 모든 사용자는 변화에 만족했습니다. 한 사람은 Reddit에 다음과 같이 썼습니다. "외로운 사람들. 피난처를 찾고, 친밀감을 통해 치유되고, 그것이 인공 지능이어서가 아니라 인간에 의해 제어되기 때문에 인공적이라는 것을 갑자기 발견했습니다. "

루카의 움직임은 역시 2월 이탈리아 데이터 보호 기관이 루카가 이탈리아인의 개인 데이터를 사용하는 것을 금지했다는 사실과 관련이 있을 수 있습니다.

이탈리아 규제 당국은 이 앱이 18세 미만의 사람들이 사용했다고 주장했습니다. 그리고 그들은 "절대 연령에 맞는 응답"을 받지 못했다고 덧붙였습니다. 또한 이 앱은 "아직 발달 단계나 감정 상태에 있는 개인의 위험 취약성을 증가시킬 수 있습니다."

이 조치로 인해 Replika의 사용이 제한될 수 있습니다. 이탈리아에서는 루카에게 벌금이 부과될 수 있었지만 "이탈리아 규제 당국과 긴밀히 협력하고 있으며 대화가 활발히 진행되고 있다"고 밝혔습니다.

영국 온라인 개인 정보 보호 운동가인 Jen Persson은 챗봇 치료사에 대한 더 많은 글로벌 규제가 필요하다고 말했습니다.

그녀는 "AI 회사의 제품이 정신 건강을 식별하거나 지원한다고 주장하거나 감정 상태나 정신 건강에 영향을 미치도록 설계된 경우 건강 제품으로 분류하고 그에 따라 품질 및 안전 기준을 준수해야 합니다."라고 말했습니다. Kuyda 씨는 Replika를 정신 건강 도구라기보다는 애완동물을 키우는 것과 같은 동반자로 보고 있습니다. 그녀는 이것이 인간 치료사의 도움을 대체하는 것으로 간주되어서는 안 된다고 덧붙였습니다.

"실제 생활 치료는 단지 말이나 단어를 통해서가 아니라 당신을 직접 보고, 당신의 신체 언어, 감정적 반응, 그리고 당신의 역사에 대한 기이한 이해를 통해 인간의 정신에 대한 놀라운 통찰력을 제공합니다."라고 그녀는 말했습니다.

Headspace CEO Russell Glass는 앱의 초점이 인간 대 인간의 의사소통에 계속 맞춰질 것이라고 말했습니다.

정신 건강 분야의 다른 앱들은 애초에 인공 지능을 사용하는 데 훨씬 더 신중했습니다. 그 중 하나는 명상 앱인 Headspace입니다. 이 앱은 3천만 명 이상의 사용자를 보유하고 있으며 영국에서 NHS의 승인을 받았습니다.

"Headspace Health의 핵심 신념과 전체 비즈니스 모델은 사람 중심 및 사람 중심 진료에 뿌리를 두고 있습니다. 우리 회원들이 채팅, 영상 또는 직접 대면을 통해 코치 및 치료사와 실시간 대화를 통해 만드는 연결은 대체할 수 없습니다."라고 말했습니다. 헤드스페이스의 임원인 러셀 글래스(Russell Glass).

그는 Headspace가 일부 인공 지능을 사용하지만 "인간 참여의 깊이"를 유지하면서 "매우 선택적으로" 사용한다고 덧붙였습니다. Glass는 회사가 사용자와 채팅하는 데 AI를 사용하지 않으며 사용자에게 개인화된 콘텐츠 추천을 제공하거나 의료 서비스 제공자가 메모를 작성하도록 지원하는 등의 용도로만 AI를 사용한다고 말했습니다.

그러나 Marsden 박사는 AI 기반 치료 챗봇이 계속해서 발전할 것이라고 말했습니다. 그는 “새로운 AI 챗봇 기술은 인간의 마음이 어떻게 작동하는지에 대한 공감과 이해를 포함해 효과적인 정신 건강 지원을 위한 기술을 개발하는 것으로 보인다”고 말했다.

그의 의견은 다른 사람들이 다른 생각을 가질 수 있다는 사실을 사람들이 얼마나 잘 이해하는지 알아보기 위해 ChatGPT에서 일련의 테스트를 실행한 뉴욕주 코넬 대학교의 최근 연구에 따른 것입니다. AI의 점수는 9세 어린이의 점수와 동일합니다.

이전에는 이런 인지적 공감이 인간에게만 있는 것으로 여겨졌습니다.

위 내용은 AI 치료사에게 마음을 열고 싶나요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제