>  기사  >  기술 주변기기  >  정말 소음이군요! ChatGPT는 언어를 이해합니까? PNAS: 먼저 '이해'가 무엇인지 알아보겠습니다.

정말 소음이군요! ChatGPT는 언어를 이해합니까? PNAS: 먼저 '이해'가 무엇인지 알아보겠습니다.

WBOY
WBOY앞으로
2023-04-07 18:21:05849검색

이 질문에 대해 기계가 생각할 수 있는지 여부는 잠수함이 수영할 수 있는지 묻는 것과 같습니다. ——Dijkstra

ChatGPT가 출시되기 오래 전부터 업계에서는 대형 모델이 가져오는 변화를 이미 감지하고 있었습니다.

지난해 10월 14일 산타페 연구소의 Melanie Mitchell 교수와 David C. Krakauer 교수는 "대규모 사전 훈련된 언어 모델이 "언어를 이해할 수 있는지"에 대한 모든 질문을 종합적으로 조사한 arXiv에 대한 리뷰를 게재했습니다. , 이 기사에서는 "찬성" 및 "반대" 주장과 이러한 주장에서 발생하는 광범위한 지능 과학의 주요 문제를 설명합니다.

정말 소음이군요! ChatGPT는 언어를 이해합니까? PNAS: 먼저 이해가 무엇인지 알아보겠습니다.

논문 링크: https://arxiv.org/pdf/2210.13966.pdf

출판 저널: "Proceedings of the National Academy of Sciences"(PNAS)

버전이 너무 길어 읽을 수 없음:

"이해"를 지지하는 주요 주장은 대규모 언어 모델이 이해가 필요한 것처럼 보이는 많은 작업을 수행할 수 있다는 것입니다.

"이해"에 대한 주요 주장은 인간의 관점에서 볼 때 프롬프트와 언어 모델 사이의 미묘한 변화를 이해할 수 없는 것과 같이 대규모 언어 모델의 이해가 매우 취약하다는 것입니다. 그들의 지식, 다중 모드 언어 모델은 이 문제를 완화할 수 있습니다.

가장 중요한 문제는 아직 "이해란 무엇인가"에 대한 신뢰할 만한 정의가 없으며, 언어 모델의 이해 능력을 테스트하는 방법을 모른다는 것입니다. 인간을 위한 테스트는 대규모 테스트에 적합하지 않을 수 있습니다. 언어 모델 이해 능력.

간단히 말하면 대규모 언어 모델은 언어를 이해할 수 있지만 아마도 인간과는 다른 방식으로 이해할 수 있습니다.

연구원들은 다양한 유형의 이해를 깊이 연구하고, 다양한 이해 모드의 장점과 한계를 찾아내며, 동시에 다양한 이해 형태에서 발생하는 인지적 차이를 통합하기 위해 새로운 지능 과학이 개발될 수 있다고 믿습니다.

정말 소음이군요! ChatGPT는 언어를 이해합니까? PNAS: 먼저 이해가 무엇인지 알아보겠습니다.

논문의 첫 번째 저자인 Melanie Mitchell은 1990년에 Santa Fe Institute의 교수이며, 그녀의 멘토는 Hofstadter였습니다. 괴델, 에셔, 바흐: 전집") 그녀의 주요 연구 관심 분야는 유추 추론, 복잡한 시스템, 유전 알고리즘 및 세포 자동 장치입니다.

"이해"란 정확히 무엇입니까?

"이해란 무엇인가"는 철학자, 인지과학자, 교육자들을 항상 당황하게 했습니다. 연구자들은 종종 "이해 능력"에 대한 참고 자료로 인간이나 다른 동물을 사용합니다.

최근까지 대규모 인공지능 시스템, 특히 LLM(대형 언어 모델)이 등장하면서 인공지능 커뮤니티에서는 이제 기계가 과연 가능하다고 말할 수 있는지에 대한 치열한 논쟁이 벌어졌습니다. 자연 언어를 이해하고 언어가 설명하는 신체적, 사회적 상황을 이해합니다.

이것은 순전히 학술적인 논쟁이 아닙니다. 기계가 세상을 이해하는 정도와 방식은 인간이 자동차 운전, 질병 진단, 노인 돌보기 등의 작업을 수행하는 데 AI를 신뢰할 수 있는 정도에 중요한 영향을 미칩니다. 인간과 관련된 업무에 대해 어린이를 교육합니다. 강력하고 투명한 조치를 취합니다.

현재의 논쟁은 학계가 지능형 시스템, 특히 "통계적 상관관계"와 "인과 메커니즘"에 의존하는 정신 모델의 이해에 대해 생각하는 방식에 약간의 차이가 있음을 보여줍니다.

그러나 인공지능 연구 커뮤니티에는 여전히 기계 이해에 대한 일반적인 합의가 있습니다. 즉, 인공지능 시스템이 많은 특정 작업에서 겉으로는 지능적인 동작을 보이지만 동일한 작업에서 다루는 내용을 이해하지 못한다는 것입니다. 인간이 데이터를 처리하는 방식.

예를 들어, 얼굴 인식 소프트웨어는 얼굴이 신체의 일부라는 점을 이해하지 못하고, 사회적 상호 작용에서 얼굴 표정의 역할을 이해하지 못하며, 인간이 거의 무한한 방식으로 얼굴 개념을 사용하는 방식도 이해하지 못합니다. 방법의 수.

마찬가지로 음성-문자 변환 및 기계 번역 프로그램은 처리하는 언어를 이해하지 못하고, 자율주행 시스템은 운전자와 보행자가 사고를 피하기 위해 사용하는 미묘한 눈맞춤이나 신체 언어를 이해하지 못합니다.

사실 자주 인용되는 이러한 인공 지능 시스템의 취약성, 즉 예측할 수 없는 오류와 강력한 일반화의 부족은 AI에 대한 이해의 핵심 지표입니다.

지난 몇 년 동안 인공 지능 분야에서 대규모 언어 모델(LLM)의 청중과 영향력이 급증했으며, 이는 기계의 언어 이해 전망에 대한 일부 사람들의 견해도 변화시켰습니다.

재단 모델이라고도 불리는 대규모 사전 훈련 모델은 수십억에서 수조 개의 매개변수(가중치)를 가진 심층 신경망으로, 대규모 자연어 말뭉치(온라인 텍스트, 온라인 서적 등 포함)에서 수행됩니다. 사전 훈련".

학습 중 모델의 임무는 입력 문장의 누락된 부분을 예측하는 것이므로 이 방법을 "자기 지도 학습"이라고도 합니다. 결과 네트워크는 단어를 얻을 수 있는 복잡한 통계 모델입니다. 학습 데이터 및 문구가 서로 어떻게 관련되어 있는지.

이 모델은 자연어를 생성하고 특정 자연어 작업에 맞게 미세 조정하거나 "사용자 의도"에 더 잘 일치하도록 추가 훈련하는 데 사용할 수 있지만, 비전문가와 과학자의 경우 언어 모델이란 정확히 무엇입니까? 이러한 작업이 어떻게 수행되는지는 미스터리로 남아 있습니다.

신경망의 내부 작동 방식은 대체로 불투명하며, 이러한 네트워크를 구축하는 연구자조차도 이 규모의 시스템에 대한 직관력이 제한되어 있습니다.

정말 소음이군요! ChatGPT는 언어를 이해합니까? PNAS: 먼저 이해가 무엇인지 알아보겠습니다.

신경과학자 Terrence Sejnowski는 LLM의 출현 능력을 다음과 같이 설명합니다.

특정 임계값을 돌파한 후 마치 외계인이 갑자기 나타나서 사용할 수 있는 것처럼 무섭고 인간적인 방식입니다. 우리와 소통하는 것. 현재로서는 한 가지 분명한 것은 대규모 언어 모델이 인간이 아니며 행동의 일부 측면이 지능적인 것처럼 보이지만 인간 지능이 아니라면 지능의 본질은 무엇입니까?

For Comprehension vs. Against Comprehension

대규모 언어 모델의 인상적인 성능에도 불구하고 최첨단 LLM은 여전히 ​​취약성과 인간이 아닌 오류에 취약합니다.

그러나 매개변수 수와 학습 코퍼스 크기가 확장됨에 따라 네트워크 성능이 크게 향상되었음을 확인할 수 있으며, 이로 인해 이 분야의 일부 연구자들은 충분히 큰 한 네트워크 및 훈련 데이터 세트, 언어 모델(다중 모드 버전) 어쩌면 다중 모드 버전일 수도 있습니다. 이는 인간 수준의 지능과 이해로 이어질 것입니다.

새로운 인공 지능 슬로건이 등장했습니다. 규모만 있으면 됩니다!

이 진술은 또한 인공 지능 연구 커뮤니티의 대규모 언어 모델에 대한 논쟁을 반영합니다.

한 학파는 언어 모델이 진정으로 언어를 이해하고 일반적인 방식으로 추론할 수 있다고 믿습니다. 아직 인간 수준에 이르지 못함) 수준).

예를 들어 Google의 LaMDA 시스템은 텍스트에 대해 사전 훈련된 다음 대화 작업에 대해 미세 조정되어 매우 광범위한 도메인의 사용자와 대화를 나눌 수 있습니다.

정말 소음이군요! ChatGPT는 언어를 이해합니까? PNAS: 먼저 이해가 무엇인지 알아보겠습니다.

다른 학교에서는 GPT-3 또는 LaMDA와 같은 대규모 사전 훈련된 모델이 언어 출력이 아무리 유창하더라도 이러한 모델에는 실제 경험이 없고 정신 모델이 없기 때문에 이해할 수 없다고 믿습니다. 세상의.

언어 모델은 다수의 텍스트 컬렉션에서 단어를 예측하도록 훈련되어 언어의 형태를 배울 수 있지만 언어 뒤에 숨은 의미를 배우는 것은 아닙니다.

언어로만 훈련된 시스템은 지금부터 우주가 멸망할 때까지 훈련을 하더라도 결코 인간의 지능에 근접하지 못할 것입니다. 이러한 시스템은 얕은 수준의 이해에만 국한되며 인간에게서 볼 수 있는 전신 사고에는 결코 근접하지 못할 것이 분명합니다.

또 다른 학자는 이러한 시스템에 관해 이야기할 때 지능, 에이전트 및 확장에 대한 이해가 잘못되었으며 언어 모델은 실제로 에이전트라기보다는 도서관이나 백과사전과 더 유사한 인간 지식의 압축 저장소라고 믿습니다.

예를 들어, 인간은 신체가 있기 때문에 "가려움"이 무엇을 의미하는지 알고 있지만 "가려움"을 이해하는 것은 분명히 경험하지 못했습니다. 단어를 다른 단어가 아닌 느낌으로 지도로 변환하는 것입니다.

"LLM은 이해하지 못한다"는 사람들은 대규모 언어 모델의 유창함은 놀랍지만 우리의 놀라움은 이러한 모델의 규모에서 통계적 상관 관계가 생성할 수 있는 것에 대한 직관이 부족함을 반영한다고 주장합니다.

자연어 처리 커뮤니티에서 활동 중인 연구자를 대상으로 한 2022년 설문 조사에서는 이 논쟁에 대한 명확한 구분이 나타났습니다.

480명의 응답자에게 LLM이 원칙적으로 언어를 이해할 수 있다는 진술에 동의하는지 묻는 질문에 "텍스트로만 훈련된 생성 언어 모델은 어떤 의미에서 자연어 이해에 사용될 수 있습니다"

설문조사 결과 절반(51%)이 동의하고 나머지 절반(49%)이 동의하지 않는 등 고르게 나뉘었습니다.

기계 이해는 인간과 다릅니다

"LLM 이해 능력" 논쟁의 양쪽 모두 각자의 견해를 뒷받침할 만큼 충분한 직관을 가지고 있지만, 이해에 대한 더 깊은 이해를 얻기 위해 현재 이용 가능한 인지 과학 기반 방법으로는 다음과 같은 질문에 답하기에는 충분하지 않습니다. 질문 LLM에 관한 질문입니다.

실제로 일부 연구자들은 LLM에 심리 테스트(원래 인간의 이해 및 추론 메커니즘을 평가하기 위해 고안됨)를 적용했으며 어떤 경우에는 LLM이 마인드 테스트 이론에서 인간과 유사한 반응을 보이고 인간의 추론 평가의 능력과 편견과 같습니다.

이러한 테스트는 인간의 일반화 능력을 평가하는 신뢰할 수 있는 에이전트로 간주되지만 인공 지능 시스템의 경우에는 그렇지 않을 수도 있습니다.

대형 언어 모델에는 훈련 데이터와 입력의 토큰 간의 상관 관계를 학습하는 특별한 능력이 있으며, 이 상관 관계를 사용하여 문제를 해결할 수 있습니다. 대신 인간은 실제 경험 개념을 반영하는 압축을 사용합니다.

인간을 위해 설계된 테스트를 LLM에 적용할 때 결과 해석은 이러한 모델에서는 사실이 아닐 수도 있는 인간 인지에 대한 가정에 의존할 수 있습니다.

진행을 위해 과학자들은 현재 우리가 만든 새로운 형태의 "기괴하고 정신과 유사한 존재"를 포함하여 다양한 유형의 지능과 이해의 메커니즘을 이해하기 위한 새로운 벤치마크와 탐지 방법을 개발해야 합니다. 관련 작업도 있었습니다.

모델이 더 커지고 더 유능한 시스템이 개발됨에 따라 LLM의 이해에 대한 논쟁은 "이해"가 가능하도록 "지능 과학을 확장"해야 한다는 점을 강조합니다. 인간과 기계 모두에게 의미가 있습니다.

신경과학자 Terrence Sejnowski는 LLM의 지능에 대한 전문가들의 서로 다른 의견은 자연 지능에 기반한 우리의 오래된 아이디어만으로는 충분하지 않다는 것을 보여준다고 지적합니다.

LLM 및 관련 모델이 전례 없는 규모로 통계적 상관 관계를 활용하여 성공할 수 있다면 아마도 DeepMind의 AlphaZero 및 AlphaFold 시스템과 같이 비범하고 초인적인 예측 기능을 가능하게 하는 "새로운 형태의 이해"로 간주될 수 있습니다. 이는 체스 게임과 단백질 구조 예측 분야에 각각 "외부" 형태의 직관을 제공합니다.

최근 몇 년 동안 인공 지능 분야는 새로운 이해 방식, 아마도 완전히 새로운 개념을 갖춘 기계를 만들어 냈으며 이러한 새로운 개념은 우리가 다음을 추구하는 과정에서 발전함에 따라 개발될 것이라고 말할 수 있습니다. 지능의 파악하기 어려운 성격은 계속해서 풍부해질 것입니다.

대량의 암호화된 지식과 고성능 요구 사항이 필요한 문제는 계속해서 대규모 통계 모델의 개발을 촉진하는 반면, 제한된 지식과 강력한 인과 메커니즘을 가진 문제는 인간 지능을 이해하는 데 도움이 될 것입니다.

미래의 과제는 다양한 형태의 지능에 대한 상세한 이해를 밝히고, 그 강점과 한계를 식별하며, 이러한 완전히 다른 인지 모드를 통합하는 방법을 배우는 새로운 과학적 방법을 개발하는 것입니다.

참고자료:​

https://www.pnas.org/doi/10.1073/pnas.2215907120

위 내용은 정말 소음이군요! ChatGPT는 언어를 이해합니까? PNAS: 먼저 '이해'가 무엇인지 알아보겠습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제