오늘날 매우 인간과 유사해 보이는 일부 문장은 실제로 대량의 인간 텍스트를 학습한 인공 지능 시스템에 의해 생성됩니다. 사람들은 유창한 언어가 인간의 생각과 느낌에서 나온다고 가정하는 데 너무 익숙하며, 그 반대의 증거는 이해할 수 없으며, AI 모델이 유창하게 표현될 수 있다면 AI 모델도 인간처럼 생각하고 느낀다는 것을 의미합니다.
따라서 전직 Google 엔지니어가 최근 Google의 인공 지능 시스템인 LAMDA가 자신의 감정에 대해 설득력 있게 텍스트를 생성할 수 있기 때문에 자기 인식이 가능하다고 주장한 것은 놀라운 일이 아닐 것입니다. 사건과 그에 따른 언론 보도로 인해 인간 언어의 계산 모델이 살아 있다는 주장에 의문을 제기하는 기사와 게시물이 나왔습니다.
Google의 LaMDA와 같은 모델에서 생성된 텍스트는 사람이 작성한 텍스트와 구별하기 어려울 수 있습니다. 이 인상적인 성과는 문법적이고 의미 있는 언어를 생성할 수 있는 모델을 구축하기 위한 수십 년간의 프로젝트의 결과입니다. 인간의 언어에 근접한 데이터 및 규칙 세트인 오늘날의 모델은 몇 가지 중요한 면에서 이러한 초기 시도와 다릅니다. 첫째, 기본적으로 인터넷 전체에 대한 교육을 받습니다. 둘째, 인접한 단어뿐만 아니라 멀리 떨어져 있는 단어 간의 관계도 학습할 수 있습니다. 셋째, 내부 조정이 너무 많아서 이를 설계하는 엔지니어조차도 왜 특정 단어 시퀀스를 생성하고 다른 시퀀스는 생성하지 않는지 이해하는 데 어려움을 겪습니다.
대규모 인공지능 언어 모델로 원활한 대화가 가능합니다. 그러나 전달해야 할 전반적인 메시지가 없기 때문에 그들의 문구는 훈련받은 텍스트에서 가져온 일반적인 문학 비유를 따르는 경향이 있습니다. 인간의 두뇌에는 단어 뒤에 숨은 의도를 추론하기 위한 고정된 규칙이 있습니다. 대화에 참여할 때마다 뇌는 대화 상대의 정신 모델을 자동으로 구성합니다. 그런 다음 그들이 말하는 내용을 사용하여 그 사람의 목표, 감정 및 신념으로 모델을 채웁니다. 발화에서 정신 모델로의 전환은 원활하며 완전한 문장을 받을 때마다 실행됩니다. 이러한 인지 과정은 일상 생활에서 많은 시간과 에너지를 절약하고 사회적 상호 작용을 크게 촉진합니다. 그러나 AI 시스템의 경우 허공에서 정신적 모델을 구축하기 때문에 실패합니다.
슬픈 아이러니는 사람들이 인류를 대규모 AI 언어 모델에 돌릴 수 있게 하는 동일한 인지적 편견이 실제 인간을 비인간적으로 대하게 한다는 것입니다. 사회문화적 언어학 연구는 유창한 표현과 유창한 사고 사이의 연관성을 너무 강하게 가정하는 것이 다른 사람들에 대한 편견으로 이어질 수 있음을 보여줍니다. 예를 들어, 외국 억양을 가진 사람들은 종종 지능이 낮고 자격을 갖춘 직업을 얻을 가능성이 낮은 것으로 간주됩니다. 미국 남부 영어처럼 명문으로 간주되지 않는 방언, 수화를 사용하는 청각 장애인, 말더듬과 같은 언어 장애가 있는 사람에 대해서도 비슷한 편견이 존재합니다. 이러한 편견은 매우 해로우며, 종종 근거 없는 것으로 거듭 입증된 인종차별적, 성차별적 가정으로 이어집니다.
위 내용은 Google은 인공 지능을 사용하여 인간 인지의 결함을 강조합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!