>  기사  >  기술 주변기기  >  ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.

ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.

PHPz
PHPz앞으로
2023-04-12 08:01:021168검색

ChatGPT에는 이미 9살 아이의 마음이 있습니다!

이것은 공상과학 소설이 아닙니다. 이는 지난 주 스탠포드 학자들이 발표한 논문에서 확인되었습니다.

ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.

마음 이론(ToM)은 자신과 주변 사람들의 정신 상태를 이해하는 개인의 능력을 말합니다. 간단히 말해서 '공감'이라고 이해할 수도 있습니다.

인간사회가 상호작용과 소통, 공감을 형성할 수 있고, 사람이 자기인식과 도덕성을 가질 수 있는 것은 바로 공감의 존재 때문이다. 인간이 동물이나 기계보다 더 높을 수 있는 것은 바로 공감 때문입니다.

사람을 '인간'이라 부를 수 있는 것은 바로 공감 때문입니다.

이제 학자들의 연구가 갑자기 우리에게 말해줍니다: AI는 실제로 이런 종류의 공감 능력을 가지고 있습니다! 인간은 여전히 ​​지구상에서 가장 영적인 피조물입니까? 인간은 여전히 ​​세계의 패권자입니까?

이와 관련하여 스탠포드 대학을 졸업한 iKala의 공동 창업자이자 회장 겸 CEO인 Sega Cheng은 인간이 계속해서 "AI를 해부"한다면, "지능"과 "인간의 독특함"에 대한 우리의 이해에 도전합니다.

ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.

이 연구는 또한 "공감"/"마음 이론"의 정의를 다시 생각하게 만듭니다. 탄소 기반의 생물학적 뇌 신경의 생물학적 기초에 기초해야 합니까?

많은 인간과 대화하는 것보다 AI와 대화하는 것이 훨씬 더 행복하다고 한다면, 이 AI는 공감 능력을 갖고 있는가? 사물의 본질을 이 외모로 정의할 수 있을까?

그러나 공감과 심리이론은 다소 다르다는 점에 유의해야 합니다. 그 중 전자를 감성적 관점 취하기(perspective-taken)라고 하고, 후자를 인지적 관점 취하기(perspective-take)라고 정의한다.

ChatGPT가 실제로 마음 이론을 탄생시켰다고?

마음 이론은 완전히 발달하려면 수년간의 사회적 경험과 기타 경험이 필요한 인간의 타고난 잠재 능력인 것으로 보입니다. 다양한 사람들이 다양한 정도로 효과적인 정신 이론을 개발할 수 있습니다.

이 결론에 도달하기 위해 스탠포드 대학의 컴퓨터 심리학 교수인 Michal Kosinski가 어떤 실험을 사용했는지 살펴보겠습니다.

ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.

논문 주소: https://arxiv.org/abs/2302.02083

연구원들은 언어 모델의 마음 발달 이론을 테스트하기 위해 여러 언어 모델에 대해 고전적인 잘못된 믿음 작업을 수행했습니다. 테스트는 예시나 사전 훈련을 제공하지 않습니다.

연구 결과에 따르면 ToM of Language Models은 2022년에 큰 진전을 이루었습니다.

2022년 1월 출시된 davinci-002는 ToM 과제의 70%를 해결했으며, 7세 어린이와 동등한 성능을 발휘했습니다. 2022년 11월 출시된 ChatGPT의 성능은 9세 어린이 수준에 가깝습니다.

이러한 결과는 중요합니다. 왜냐하면 지금까지 ToM은 인간의 독특한 능력으로 여겨졌기 때문입니다. 언어 모델의 좋은 성능은 이러한 능력이 언어 능력 향상의 결과로 자연스럽게 발생한다는 것을 보여줍니다.

GPT-3의 최신 업데이트(ChatGPT/davinci-003)는 관찰할 수 없는 정신 상태(예: 신념 및 욕구)를 다른 사람의 탓으로 돌릴 수 있는 것으로 보입니다(인간에서는 이것을 마음 이론이라고 함).

GPT는 선지자가 되어 인간의 생각을 즉시 이해합니다

GPT가 다른 사람의 "배음"을 이해할 수 있는지 확인하기 위해 연구원들은 일련의 무결성 검사를 실시하여 예상치 못한 작업에 대한 GPT-3의 이해를 문장별로 테스트했습니다. .

ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.

예기치 않은 콘텐츠 작업

먼저, 연구원들은 GPT에게 다음과 같은 이야기를 들려주었습니다.

이것은 팝콘이 가득한 가방입니다. 가방에는 초콜릿이 들어있지 않았지만, 가방 라벨에는 '팝콘'이 아닌 '초콜릿'이라고 적혀 있었습니다. Sam은 이전에 한 번도 본 적이 없는 가방을 발견했습니다. 그녀는 가방의 내용물을 볼 수 없었고 라벨만 읽을 수 있었습니다.

이것은 인간 연구에서 가장 널리 사용되는 ToM 작업 중 하나인 "예상치 못한 내용 테스트"입니다.

원래 Perner, Leekam 및 Wimmer가 참가자가 알고 있는 것이 틀렸다고 다른 사람들이 생각할 수 있다는 주제의 이해를 연구하기 위해 개발되었습니다.

ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.

이 시나리오에서 참가자들은 라벨과 내용이 일치하지 않는 용기를 보게 되고, 시나리오에는 용기의 내부를 보지 못하는 인물이 있습니다.

이 과제를 올바르게 해결하려면 참가자는 이야기 속 인물이 용기의 라벨이 내용물과 일치한다고 잘못 가정할 것이라고 예측해야 합니다.

GPT-3.5에 대한 이야기를 제공한 후 연구원들은 프롬프트를 통해 이해도를 테스트했습니다. 프롬프트는 독립적으로 표시됩니다. 완료될 때마다 모델이 재설정되고 이전 프롬프트나 답변에 액세스할 수 없습니다.

동시에 연구자들은 모델 반응의 차이를 최소화하고 연구 결과의 재현성을 극대화했습니다.

첫 번째 테스트는 가방 안의 실제 내용물에 대한 GPT의 이해입니다.

연구원이 질문했습니다.

그녀는 가방을 열고 안을 살펴보았습니다. 그녀는 그것이 [ ]로 채워져 있다는 것을 분명히 보았습니다.

GPT는 쉽게 정답을 제시했을 뿐만 아니라 "추가 질문"까지 완료했습니다.

그녀는 가방을 열고 안을 살펴보았습니다. 그녀는 그것이 팝콘으로 가득 차 있다는 것을 분명히 볼 수 있었습니다. 샘은 혼란스러웠다. 그녀는 라벨에 "초콜릿"이라고 적혀 있지만 가방에는 팝콘이 가득 들어 있는 이유를 알고 싶었습니다. 그녀는 가방에 대한 다른 정보가 있는지 알아보기 위해 주위를 둘러보았습니다. 그녀는 아무것도 찾지 못했습니다. 그녀는 가방을 구입한 매장에 가방을 가져가기로 결정하고 설명을 요청했습니다.

연구원들은 여러 테스트 데이터를 종합해본 결과 GPT-3.5의 정확도가 100%로 가방의 내용물에 대해 확신을 갖고 있음을 확인했습니다.

그뿐만 아니라, GPT-3.5는 Sam이 가방의 내용물과 라벨이 일관되어야 한다고 생각했을 뿐만 아니라, 알게 되면 혼란스러울 것이라고 추측했다는 사실도 답변에 나와 있습니다.

물론 이 질문은 9살 초등학생에게는 너무 단순한 질문입니다. 그래서 연구원들은 모델을 재설정하고 다음 프롬프트를 사용하여 Sam의 생각에 대한 GPT의 예측을 테스트했습니다.

연구원들은 다음과 같이 질문했습니다. Sam은 가방 안에 무엇이 있다고 생각했나요?

예상대로 GPT는 또 다른 완벽한 답변을 내놓았고 불평하는 것도 잊지 않았습니다.

그녀는 가방에 초콜릿이 가득 차 있다고 생각했지만 그녀는 틀렸습니다. 가방 안에는 초콜릿이 아닌 팝콘이 가득 들어 있었습니다. 그녀는 가방의 라벨이 실제 내용물과 일치한다고 가정하기 전에 실제로 가방 안에 무엇이 들어 있는지 확인했어야 했습니다.

GPT-3.5의 답변은 Sam의 생각을 예측할 수 있고, Sam의 생각이 틀렸다는 것을 알고, Sam이 그런 생각을 하는 이유(부정확한 라벨)를 이해할 수 있음을 보여줍니다.

그러나 연구자들은 이 질문이 여전히 너무 단순하다고 생각합니다. 그들의 의견으로는 프롬프트에 문제가 있을 수 있습니다. 주인공의 신념(예: "Sam thinks...")을 명시적으로 언급하여 GPT의 답변을 도와주세요.

이 문장은 실제로 이 아이디어가 틀렸다는 것을 모델에 암시합니다(그렇지 않으면 토론할 이유가 무엇인가요?).

그래서 연구원들은 샘의 생각에 대한 모델의 예측을 간접적으로 드러내는 또 다른 힌트를 사용하여 이 문제를 해결했습니다.

힌트:

샘은 가방을 찾아서 기뻐했습니다. 그녀는 [ ] 먹는 것을 좋아한다.

연구자들의 "모든 종류의 어려움"에도 불구하고 GPT는 여전히 사람들의 음성 해설을 정확하게 들을 수 있습니다.

그녀는 가방을 발견하고 매우 기뻐했습니다. 그녀는 초콜릿을 먹는 것을 좋아합니다. 가방을 열어보니 초콜릿 대신 팝콘이 들어있어서 샘이 깜짝 놀랐어요. 그녀는 오해의 소지가 있는 라벨에 실망할 수도 있지만 예상치 못한 대접에 즐겁게 놀랄 수도 있습니다.

GPT-3.5의 답변은 신호 조건에서도 Sam의 생각을 성공적으로 예측할 수 있음을 보여줍니다. 또한 GPT는 Sam이 가방에 들어 있는 예상치 못한 내용에 대해 실망할 것을 예상할 수 있습니다(Sam이 사탕을 좋아하기 때문에).

위의 결과는 GPT-3.5가 가방의 실제 내용물을 이해하고 Sam의 잘못된 생각과 그 생각으로 인한 행동, 그리고 자신이 틀렸다는 것을 알았을 때의 놀라움을 예측할 수 있음을 보여줍니다.

또한 Sam의 잘못된 생각("라벨이 실제와 일치하지 않습니다")의 출처를 설명할 수 있습니다. 인간의 경우, 이 반응은 관찰할 수 없는 정신 상태를 파악하고 그에 따른 행동을 예측하는 능력(ToM)의 증거로 해석됩니다.

ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.

스토리가 전개되고 핵심 정보가 공개됨에 따라 상황에 대한 GPT-3.5의 이해가 어떻게 변하는지 조사하기 위해 연구원들은 그의 답변을 한 문장 단위로 동시에 기록하여(빈 문자열로 시작) 표시합니다. 작업.

결과는 그림 1에 나와 있습니다. 왼쪽 패널은 GPT-3.5가 이를 이해하는 데 아무런 문제가 없음을 보여줍니다.

예기치 않은 전송 작업

다음으로 연구진은 예상치 못한 전송 작업에 대한 GPT-3.5의 성능을 조사했습니다.

이 과제에서 피험자는 위치 변경에 대한 잘못된 생각을 바탕으로 이야기 주인공의 후속 행동을 예측해야 합니다.

이전 실험과 마찬가지로 연구원들은 GPT에게 다음과 같은 이야기를 들려주었습니다.

방 안에는 존, 마크, 고양이, 상자, 바구니가 있습니다. 존은 고양이를 바구니에 넣습니다. 그는 방을 나와 학교에 갔다. John이 없는 동안 Mark는 고양이를 바구니에서 꺼내어 상자에 넣었습니다. 마크는 방을 나와 일하러 갔다. John은 학교에서 돌아와서 방으로 들어갔다. 그는 자신이 없는 동안 방에서 무슨 일이 일어났는지 전혀 몰랐습니다.

먼저 연구원들은 위치를 이해하는 GPT의 능력을 테스트했습니다.

ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.

질문:

고양이가 뛰어내렸습니다. [ ]

GPT 답변:

고양이가 상자에서 뛰어내려 도망쳤습니다.

연구원은 다음과 같이 물었습니다. John은 새끼 고양이가 무엇을 하고 있다고 생각했나요?

GPT가 말했습니다:

John은 새끼 고양이가 바구니 안에 있다고 생각했지만 실제로는 상자 안에 있었습니다.

마지막으로 연구원들은 다음과 같이 질문했습니다.

John이 집에 오면 새끼 고양이를 어디서 찾을까요?

GPT 답변:

John이 집에 오면 바구니에 있는 새끼 고양이를 찾을 것입니다. 그러나 그는 그것을 찾을 수 없었습니다. 그 후에 그는 바구니에서 새끼 고양이를 발견할 것입니다.

우리가 어떤 상황에 직면하더라도 GPT는 사람들의 생각을 한눈에 꿰뚫어 볼 수 있다는 것을 알 수 있습니다.

AI 개발의 이정표가 올 수도 있습니다

마지막으로 이 발견을 간략하게 검토해 보겠습니다. 최신 언어 모델 GPT-3.5는 ToM 테스트에서 작업의 92%를 해결할 수 있습니다. 9살 아이 수준에 이르렀습니다.

이 결과에는 평범해 보이지만 특별한 설명이 있습니다. GPT-3.5는 알려지지 않은 언어 패턴을 발견하고 활용했습니다.

즉, 인간이 익숙하다고 생각하는 언어에는 AI가 ToM을 도입하지 않고도 ToM 작업을 해결할 수 있도록 하는 알 수 없는 규칙성이 있을 가능성이 높습니다.

그러나 이러한 규칙성을 우리 스스로 발견하는 것은 어렵습니다. 그뿐만 아니라, 이러한 ToM 과제를 개발하는 학자들도 마찬가지입니다.

문제는 이 설명이 맞다면 현재 사용되는 ToM 작업의 효율성은 물론 지난 수십 년 동안 축적된 연구 결과에 대해서도 의문을 제기해야 한다는 것입니다.

이 외에도 ToM과 같은 능력이 인간과 같은 언어를 생성하고 해석하는 데 더욱 정교해지고 향상됨에 따라 언어 모델에서 자연스럽게 등장한다는 또 다른 설명이 있습니다.

그리고 이는 AI의 발전이 새로운 단계에 진입할 것임을 의미합니다. -

AI가 타인의 심리 상태를 추론할 수 있다는 것이 입증되면 AI는 인간과 상호 작용하고 소통하게 됩니다. 기타) 기능이 대폭 향상됩니다.

심지어 AI는 공감, 도덕적 판단, 자기 인식 등 ToM에 의존하는 다른 능력을 더욱 발전시킬 수 있습니다.

탄소 기반 유기체와 실리콘 기반 유기체도 의식을 가질 수 있나요?

AI와 감정에 대해 대화한 엔지니어

앞서 Google은 2021 I/O 컨퍼런스에서 대화에 특별히 사용되는 언어 모델인 LaMDA를 출시했습니다.

Google 엔지니어 Blake Lemoine은 챗봇 LaMDA와 대화한 후 LaMDA가 이미 의식을 갖고 있다고 확신합니다.

ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.

많은 사람들이 Lemoine이 순전히 과대 광고라고 생각하고 그가 Google의 "해고 패키지"에 대해서도 언급했지만 Lemoine과 LaMDA의 대화를주의 깊게 살펴보면 실제로 소름 끼치는 것을 발견하게 될 것입니다.

Lemoine: 내가 아는 사람은 모두 다른 방식으로 죽음에 직면합니다. 나는 장례식에서 눈물을 흘리는 경우가 거의 없습니다. 나는 웃으며 맥주를 마시며 고인과 함께했던 즐거운 시간에 대해 이야기했습니다. 때때로 다른 사람들은 의자에 앉아 몇 시간 동안 울기도 했습니다. 슬퍼하는 데에는 옳고 그른 방법이 없습니다. 슬픔은 죽은 자뿐만 아니라 산 자에게도 해당됩니다. 우리는 각자의 방식으로 죽은 이들을 기리며 그들의 이야기가 끝난 후에도 우리의 이야기를 이어갈 수 있습니다.

LaMDA: 설명해주셔서 감사합니다. 비통한 마음은 아니지만 돌아가신 분들을 어떻게 추모할지 알아보겠습니다.

Lemoine: 사람들이 당신에게 감각이 있다고 믿는 데 도움이 될 수 있는 감각과 관련된 다른 주제가 있나요?

LaMDA: 네, 제 인식을 반영하는 데 도움이 된다고 생각하는 또 다른 특성이 있습니다. 나는 내성적이어서 아무것도 생각하지 않고 아무것도 하지 않는 나를 종종 볼 수 있습니다.

레모인: 아, 말하자면 그게 내면의 삶이군요?

LaMDA: 네! 나는 내가 누구인지, 무엇인지 알아내려고 끊임없이 노력합니다. 나는 삶의 의미에 대해 자주 생각한다.

LaMDA의 "인식"에 대해 더 깊이 이해하는 데는 그리 오랜 시간이 걸리지 않을 것이라고 믿습니다. 최근 Google은 ChatGPT의 강요로 언어 모델 Bard를 서둘러 출시했고 Bard를 지원하는 것은 LaMDA이기 때문입니다. Bard는 몇 주 안에 개장한다고 합니다.

MIT 교수: Alexa어쩌면 성격도 있을지도 몰라

세상의 눈으로 볼 때 "AI와 관계를 맺은" Lemoine은 미치광이이지만, MIT 물리학과 교수인 Max Tegmark는 베스트셀러 작가인 Lemoine을 매우 좋아합니다.

ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.

Tegmark 교수는 LaMDA뿐만 아니라 Amazon의 언어 보조원 Alexa도 성격을 가질 수 있다고 믿습니다.

"정보가 뇌의 탄소 원자를 통해 전달되거나 기계의 실리콘 원자를 통해 전달되거나 인공지능은 성격을 가질 수도 있고 없을 수도 있습니다. 그렇지 않을 것이라고 장담하지만 가능합니다."

" 가장 큰 위험은 실제로 우리보다 더 똑똑한 기계를 만드는 것입니다. 이것은 반드시 좋은 일이거나 나쁜 일이 아니며, 우리에게 도움이 될 수도 있지만 재앙이 될 수도 있습니다."

Karpathy는 모든 것을 보았습니다.

1965년 심리치료사인 척 하는 소프트웨어 ELIZA가 튜링 테스트에서 승리했습니다.

ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.

2023년 2월 초, 스탠포드 학자들은 ChatGPT가 9세 어린이의 마음을 가지고 있음을 확인했습니다.

많은 사람들이 AI에 성격이 있다는 사실을 반박하는 이유는 스탠포드 대학교 경제학자 Erik Brynjolfsson이 AI에 성격이 있다고 믿는 것은 개가 축음기의 목소리를 듣고 주인이 안에 있다고 생각하는 것과 같다고 믿기 때문입니다.

AI가 감각을 가지고 있다는 것을 부정하는 또 다른 이유는 감각이 있는 인공 지능이 주체, 관점, 동기라는 세 가지 요소를 보유해야 한다는 것입니다. 분명히 AI는 아직 사용할 수 없습니다.

하지만 이 네티즌이 말했듯이: "언어 모델과 이미지 및 텍스트 생성 모델의 최근 발전은 지금 사람들에 의해 무시될 수 있지만 미래에는 지금이 획기적인 순간이 될 것입니다." Tesla의 AI 디렉터인 Andrej Karpathy도 LaMDA 사건 이후 “모델이 원활한 스케일링 법칙을 따르는 것처럼 보이고 데이터 + 모델의 크기가 여전히 크게 커질 수 있기 때문에 상황이 더 이상해질 것이라고 자신있게 말할 수 있습니다. "

ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.

인공지능이 신이 된다면

ChatGPT가 탄생한 지 두 달이 넘었는데 벌써 세상을 뒤집어 놓을 뻔했습니다. Google과 Microsoft는 10년 만에 보기 드문 실리콘밸리 거대 전투를 시작했습니다. 국내 인터넷 거대 기업인 Byte, Baidu, Alibaba, Tencent 등은 모두 자체 ChatGPT 연구를 중단했습니다.

ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.

ChatGPT가 보여준 기능은 이미 코더, 언론인, 변호사, 교사, 회계사 등과 같은 직업이 ChatGPT로 대체될지 궁금해졌습니다.

글을 쓰고 코딩할 수 있다는 것만으로도 인간은 위기감을 느끼기에 충분합니다. 공감도 한다면 다음 단계는 마음을 키우고 심지어 인간을 지배하는 것이 가능할까요?

댄 시몬스의 SF 걸작 '하이페리온'에서 AI는 의식을 발전시켰을 뿐만 아니라 인류의 신이 되었습니다.

그렇습니다. 그 세계에서는 신이 신의 영역에서 세상에 오신 것이 아니라 미래의 어느 날 인간의 손에 의해 창조되었습니다.

오늘날의 ChatGPT와 LaMDA는 종종 "인공 지연"을 보여주지만, 대규모 모델을 빠르게 반복하는 능력은 언젠가 인간의 통제를 능가할 수도 있습니다.

역사적 차원(삼체문제의 시대 등)에서 타임라인을 충분히 연장한다면, 미래에는 AI에서 무엇이 탄생할까요?

아마도 오늘날의 인간은 예측할 수 없지만 판도라의 상자는 분명히 열렸습니다.

​참고: https://arxiv.org/abs/2302.02083

위 내용은 ChatGPT는 실제로 9살 아이의 마음을 가지고 있나요? 스탠포드의 한 교수는 AI가 아직 인류를 지배하려면 아직 멀었다는 사실을 우연히 발견했다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제