이 기사는 신경 과학, 심리학 및 컴퓨터 과학을 합병하는 획기적인 연구를 검토하여 대형 언어 모델 (LLM)과 인간 뇌, 특히 텍스트 처리 및 절차 적 추론에서 놀라운 유사점과 중요한 차이를 드러냅니다. .
소개 :
LLM의 증가는 인간인지 과정을 모방 할 수있는 잠재력에 대한 강력한 논쟁을 불러 일으켰다. 언어, 추론 및 문제 해결의 고급 기능은 근본적인 운영 원칙에 대한 설득력있는 질문을 제기합니다. 이전 기사는 특히 "중국 객실 논쟁"과 LLM 텍스트 처리와 인간 언어 습득 사이의 유사점에 관한이를 탐구했습니다.
튜링 테스트, 중국 방 논쟁 및 현대적인 대형 언어 모델에 대한 회전
구두와 서면 의사 소통이 인간이 지능을 발전 시킨다면…
인간은 초고속 "확률 앵무새"?
도발적으로, 마이크로 소프트 연구원들은 GPT-4 에서 "인공 지능의 불꽃"을 발견했다고 말했다.
지능과 아마도 AI에서 지능과 의식이 서두르지 않으면 어떨까요?
이전 작업은 또한 LLM "추론"과 문제 해결 정확도에 대한 프롬프트 엔지니어링의 영향을 분석했습니다.
- 새로운 심해 작업을 공개합니다. 언어 모델에 대한 최고의 프롬프트 씨앗
문자열에서 훈련 된 언어 모델이 어떻게 수학을 수행 할 수 있습니까?
- 최근의 연구는 놀라운 유사성을 밝힙니다
이 기사는인지 과제 성능, 평가 방법론 및 지능의 본질에 중점을 둔 LLM과 인간 뇌 사이의 유사점과 차이점을 탐구하는 최근 연구를 검토합니다. 5 개의 주요 연구 논문은이 분석의 기초를 형성합니다.
대형 언어 모델 및인지 과학 : 유사성, 차이점에 대한 포괄적 인 검토…
이 검토 (현재 비결정 검토)는 LLM과인지 과학의 교차점을 검사하고 LLM과 인간을 비교하는 방법을 자세히 살펴 봅니다. 인지 심리학 실험의 적응 및 신경 영상 데이터를 포함한 정보 처리. 그것은 언어 처리 및 감각적 판단의 유사성을 강조하는 동시에, 특히 새로운 문제로 추론의 차이를 강조합니다.
-
상황에 맞는 특징 추출 계층 구조는 큰 언어 모델과 뇌에 수렴합니다 - 자연…
이 논문은 12 개의 LLM을 분석하여 음성 이해 중에 신경 반응 (두개 내 EEG)을 예측하는 능력을 평가합니다. 고성능 LLM은 더 적은 층을 사용하여 뇌의 경로와 계층 적 특징 추출을 정렬하여 더 큰 뇌 유사성을 보여 주었다. 맥락 정보는 모델 성능과 뇌와 같은 처리를 크게 향상 시켰습니다.
척도 문제 : 수백만 (수백만이 아닌)의 매개 변수가 아닌 대형 언어 모델… 자연 언어 가공 중 (전기 코스틱 사용). 더 큰 LLM은 더 정확하게 예측 된 신경 활동을보다 정확하게 예측했으며, 최적의 예측 층이 더 큰 모델에서 이전 층으로 이동합니다.
-
인간 및 심층 언어 모델의 언어 처리를위한 공유 계산 원리-PubMed 이 2022 기사 (GPT-2 사용)는 인간과 LLM이 세 가지 계산 원칙을 공유한다는 경험적 증거를 발견했습니다. 사전 발병 예측을 사용하여 발병 후 놀라움을 계산하고 상황에 맞는 임베딩을 사용하여 단어를 나타냅니다.
사전 조정에 대한 절차 적 지식은 대형 언어 모델에서 추론을 유발합니다
이 사전 인쇄는 LLM이 추론 전략을 사실 지식 검색과 비교하여 LLM이 추론을 배우는 방법을 검토합니다. 추론은 절차 적 지식에 의해 주도되며, 유사한 추론 프로세스를 보여주는 문서에서 솔루션을 종합합니다.
-
주요 평행 및 발산 :
유사성 :
계층 적 언어 처리 : - LLM과 인간 뇌 프로세스 언어는 계층 적으로 복잡한 언어 적 특징을 점차 추출합니다. LLM 성능은 언어 처리 중에 인간 뇌 활동을 예측하는 능력과 관련이 있습니다.
문맥 의존성 : 두 시스템 모두 상황 정보에 크게 의존합니다. LLM의 더 큰 맥락 Windows는 인간 신경 반응을 예측하는 능력을 향상시켜 이해를위한 맥락에 대한 뇌의 의존성을 반영합니다.
차이점 :
기능적 대 공식 언어 역량 : LLM은 공식 언어 역량 (문법)에서 뛰어나는 반면, 종종 기능적 역량 (실용성, 유머 또는 풍자와 같은 상황에 따른 측면)으로 어려움을 겪고 있습니다.
메모리 메커니즘 :
인지 모델로서 LLM을 평가 :
LLM인지 능력 평가는 독특한 과제를 제시합니다. 연구자들은인지 심리학 실험 (코그 벤치와 같은)을 적응시키고 신경 영상 데이터를 사용하여 LLM 표현을 인간 뇌 활동과 비교합니다. 그러나 이러한 결과를 해석하려면 두 시스템의 근본적인 차이로 인해주의해야합니다.
수렴 질문 :
LLM이 진정한 지능을 개발하고 있는지에 대한 문제는 여전히 열려 있습니다. 인지 과제에 대한 그들의 성과는 인상적이지만 인간의 뇌와의 근본적인 차이는 지속됩니다. 뇌와 같은 처리로 LLM의 수렴은 흥미로운 가능성을 높이지만, 인간 수준의 지능을 달성 할 것인지의 여부는 여전히 불확실합니다.
결론 :
여기에서 검토 된 연구는 LLM과 인간 뇌의 매혹적인 유사점과 차이점을 강조합니다. 이 지속적인 조사는 인공 지능에 대한 우리의 이해를 발전시킬뿐만 아니라 인간인지 자체에 대한 우리의 지식을 심화시킵니다.
추가 읽기 :
큰 언어 모델에 의해 환각 된 "구성"을 감지하는 새로운 방법
현대 과학 및 기술에서 대형 언어 모델의 직접적인 사용
LLMS에 액세스하여 자연 언어 요청을 통한 강력한 데이터 분석 및 플롯…
수개월의 테스트 후 교실에서 chatgpt의 힘을 발휘합니다