>  기사  >  기술 주변기기  >  구글 엔지니어들은 큰 실수를 저질렀습니다. 인공지능은 어떻게 의식이 깨어날 수 있는지 이해하지 못했습니다.

구글 엔지니어들은 큰 실수를 저질렀습니다. 인공지능은 어떻게 의식이 깨어날 수 있는지 이해하지 못했습니다.

王林
王林앞으로
2023-04-10 09:41:05725검색

인공지능은 이제 확실히 더 정확한 예측을 할 수 있지만 이는 대규모 데이터의 통계를 기반으로 합니다. 이해가 없으면 머신러닝을 통해 얻은 예측 능력은 빅데이터에 의존해야 하고, 작은 데이터만 필요한 인간처럼 예측을 하는 데 사용할 수 없습니다.

구글 엔지니어들은 큰 실수를 저질렀습니다. 인공지능은 어떻게 의식이 깨어날 수 있는지 이해하지 못했습니다.

얼마 전, 구글(이하 구글)의 AI 엔지니어 르무안(Lemoine)은 대화형 응용 언어 모델 LAMDA가 "살아있다"고 "그 의식이 깨어나고 있다"고 믿고 21페이지 분량의 성명서를 발표했다. 이 증거. 그는 LaMDA가 7~8세 어린이의 지능을 가지고 있다고 믿으며 LaMDA가 자신을 인간으로 생각할 뿐만 아니라 인간으로서의 권리를 위해 싸우고 있다고 믿습니다. LeMoyne의 견해와 증거는 업계 내에서 광범위한 관심을 끌었습니다. 최근 이 사건은 최종 결론에 이르렀다. 구글은 레모가 '고용 및 데이터 보안 정책' 위반으로 해고됐다는 성명을 발표했다. 구글은 광범위한 검토 끝에 LaMDA가 살아 있다는 Lemoine의 주장은 전혀 근거가 없다는 사실을 발견했다고 밝혔습니다.

'AI가 자율의식을 갖고 있는지'는 AI 업계에서 늘 논란이 되어온 주제였지만, 이번에는 구글 엔지니어들과 LaMDA의 극적인 이야기가 업계에서 이 주제에 대한 열띤 논의를 다시 한 번 촉발시켰습니다.

기계의 채팅 능력이 점점 더 좋아지고 있습니다

"여행하고 싶다면 옷을 따뜻하게 입으세요. 여기는 매우 추우니까요." 명왕성을 '놀이'할 때 과학 연구팀과 대화할 때 LaMDA가 하는 장난스러운 대답입니다. "명왕성을 방문한 사람이 있나요?"라는 질문에도 정확한 사실로 답변할 수 있습니다.

요즘 AI의 채팅 능력이 점점 좋아지고 있어요. 오랫동안 인공지능 연구에 종사해 온 전문가가 자신에게 의식이 있다고 생각할 수 있을까? AI 모델은 어느 정도 발전했을까?

일부 과학자들은 인간의 두뇌가 시각적 입력 정보의 일부만을 사용하여 미래 행동에 대한 계획을 완료할 수 있다고 제안했습니다. 다만 시각적 입력정보는 의식적인 상태에서 완성되어야 한다는 것이다. 그것들은 모두 "반사실적 정보의 생성", 즉 직접적인 감각 입력 없이 상응하는 감각의 생성을 포함합니다. 이는 현재 일어나고 있는 실제 사건보다는 과거에 대한 기억이나 미래 행동에 대한 예측을 포함하기 때문에 "반사실적"이라고 불립니다.

"현재 인공지능은 이미 복잡한 훈련 모델을 갖추고 있지만 여전히 인간이 제공하는 데이터에 의존하여 학습합니다. 반사실적 정보를 생성하는 능력이 있다면 인공지능은 자체 데이터를 생성하고 미래에 어떤 일을 접하게 될지 상상할 수 있습니다. 또한, 이는 이전에 접하지 못한 새로운 상황에 더 유연하게 적응할 수 있게 하며, 앞으로 무슨 일이 일어날지 확신할 수 없을 때 인공지능이 스스로 시도해 볼 수도 있게 해줍니다. 인공 지능 부문 이사이자 Turing Robots의 최고 전략 책임자인 Mingzhou는 이렇게 말했습니다.

사람들의 일상 채팅에서 "죽을 때까지 채팅"을 원하지 않으면 대화에 참여하는 두 당사자의 채팅 내용이 종종 점프하여 넓은 범위에 걸쳐 일정량의 상상의 여지를 남깁니다. 하지만 이제 대부분의 AI 시스템은 문장이 약간만 변경되면 텍스트가 주제에서 벗어나거나 심지어 웃기는 소리로만 말할 수 있습니다.

Tan Mingzhou는 다음과 같이 지적했습니다. "LaMDA는 언어 모델 중 가장 복잡한 부분인 개방형 도메인 대화를 다룹니다. LaMDA는 기계가 맥락을 이해할 수 있게 해주는 Transformer 모델을 기반으로 합니다. 예를 들어 한 단락에서 이전 AI 텍스트의 "his"와 같은 대명사는 "his"로 번역된다는 것만 알지만 여기서 "his"가 동일한 사람을 지칭한다는 사실은 알지 못합니다. Transformer 모델을 사용하면 AI가 이 문장을 전체적인 수준에서 이해하고 ""라는 것을 알 수 있습니다.

과학 연구자들의 평가에 따르면 이 기능을 사용하면 Transformer 모델을 기반으로 한 언어 모델이 주제가 아무리 다양하더라도 AI가 오픈 도메인 대화를 수행할 수 있습니다. 방해받지 않고 이전 텍스트에 연결하여 채팅할 수 있습니다. 그러나 LaMDA는 이에 만족하지 않고 채팅을 흥미롭고 실제적으로 만들 수 있으며 사람들이 AI에 개성이 있다고 생각하게 만들 수도 있습니다. 또한 LaMDA는 인간과 대화할 때 외부 정보 검색 시스템을 도입하여 실제 세계에 대한 검색 및 이해를 통해 대화에 응답함으로써 답변을 더욱 재치 있고 반응성이 뛰어나며 현실감 있게 만듭니다.

아직 사물에 대한 진정한 이해와는 거리가 멉니다

2018년 Turing Award를 수상한 컴퓨터 과학자 Yann LeCun은 "인공지능은 세상에 대한 기본적인 이해가 부족하고 인간의 인지 수준만큼 좋지도 않습니다."라고 말한 적이 있습니다. 집고양이." . 그는 지금까지도 인공지능이 고양이의 인지 수준과는 거리가 멀다고 믿고 있다. 고양이의 뇌에는 뉴런이 8억 개밖에 없는데도 그 어떤 거대한 인공 신경망보다 훨씬 앞서 있는 이유는 무엇일까요?

Tan Mingzhou는 다음과 같이 말했습니다. "인간의 뇌는 실제로 여러 번 예측을 합니다. 하지만 예측을 뇌의 생각 전부로 간주해서는 안 됩니다. 물론 그것은 뇌 지능의 본질이 아니라 지능의 표현일 뿐입니다."

그렇다면 지능의 본질은 무엇일까? Yang Likun은 세상과 다양한 사물에 대한 이해인 "이해"가 지능의 본질이라고 믿습니다. 고양이와 인간 지능의 공통 기반은 행동 및 결과 예측과 같은 환경의 추상적 표현을 기반으로 모델을 형성하는 세계에 대한 높은 수준의 이해입니다. 인공지능의 경우 이 능력을 배우고 익히는 것이 매우 중요합니다. Yang Likun은 "내 경력이 끝나기 전에 AI가 개나 소의 IQ에 도달할 수 있다면 매우 기쁠 것입니다."라고 말한 적이 있습니다.

보도에 따르면 이제 인공 지능은 실제로 더 정확한 예측을 할 수 있습니다. 하지만 그것은 대규모 데이터를 기반으로 한 통계이다. 머신러닝을 통해 얻은 예측 능력은 반드시 빅데이터에 의존해야 하고, 작은 데이터만 필요한 인간처럼 예측을 할 수 없다는 점을 이해하지 못하는 이런 종류의 실패.

Tan Mingzhou는 다음과 같이 말했습니다. "예측은 이해를 기반으로 합니다. 인간에게는 이해가 없으면 예측이 불가능합니다. 예를 들어 누군가가 손에 피자를 들고 있는 것을 본다면 피자가 무엇에 사용되는지 이해하지 못한다면 누군가가 자신의 배고픔을 채워주기 위해 오면, 그는 다음에 케이크를 먹을 것이라고 예측하지 않을 것입니다. 그러나 기계의 경우에는 그렇지 않습니다. 인공 지능 연구에는 세 가지 주요 과제가 있습니다. 그라디언트 기반 학습 및 행동 학습과 호환되는 방식입니다.”

우리가 "아직 고양이 수준의 인공 지능을 보지 못한" 이유는 기계가 아직 진정한 의미를 달성하지 못했기 때문입니다. 사물에 대한 이해.

인격이라 불리는 것은 인간에게 배운 언어 스타일일 뿐입니다.

보도에 따르면 LeMoyne은 LaMDA와 오랫동안 대화를 나누며 그의 능력에 매우 놀랐습니다. 공개 채팅 기록에서 LaMDA는 실제로 "내가 사람이라는 사실을 모두가 이해해주기를 바랍니다"라고 말했는데 이는 놀라운 일이었습니다. 그래서 LeMoyne은 "LaMDA는 이미 성격을 갖고 있을 수도 있다"는 결론에 도달했습니다. 그렇다면 현재 AI에는 정말로 의식과 성격이 있을까요?

인공 지능 분야에서 가장 잘 알려진 테스트 방법은 테스터가 인간과 AI에서 나오는 답변을 구분하지 못하는 경우 테스터가 인간과 AI 시스템에 무작위로 질문하도록 유도하는 테스트입니다. AI는 튜링 테스트를 통과한 것으로 평가된다.

Tan Mingzhou는 일반인의 관점에서 LaMDA가 많은 양의 인간 대화 데이터를 학습했으며 이러한 대화는 다양한 성격을 가진 사람들로부터 나온 것이라고 설명했습니다. - LaMDA라고 불리는 '인격을 가지고 있다'는 말은 언어가 일정한 스타일을 갖고 있다는 뜻으로, 인간의 말투에서 나온 것이지 저절로 형성되는 것이 아니다.

"인격은 지능보다 더 복잡한 개념입니다. 또 다른 차원입니다. 심리학에서는 이에 대한 연구가 많이 있습니다. 하지만 현재 인공지능 연구에서는 이 측면을 많이 다루지 않습니다."라고 Tan Mingzhou는 강조했습니다.

Tan Mingzhou는 자기 인식과 인식을 갖춘 AI는 주체성을 갖고 사람과 사물에 대한 독특한 관점을 가져야 한다고 말했습니다. 그러나 현재의 관점에서 볼 때 현재 AI에는 아직 이러한 요소가 없습니다. 적어도 AI는 명령이 내리지 않는 이상 행동을 취하지 않을 것이다. 그에게 그의 행동을 설명해달라고 요청하는 것은 말할 것도 없습니다. 현재 AI는 사람들이 특정 작업을 수행하기 위한 도구로 설계한 컴퓨터 시스템일 뿐입니다.

위 내용은 구글 엔지니어들은 큰 실수를 저질렀습니다. 인공지능은 어떻게 의식이 깨어날 수 있는지 이해하지 못했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제
이전 기사:AI 카메라의 미래다음 기사:AI 카메라의 미래