>기술 주변기기 >일체 포함 >ChatGPT가 정말로 세계를 장악하게 될까요?

ChatGPT가 정말로 세계를 장악하게 될까요?

WBOY
WBOY앞으로
2023-04-12 19:28:011592검색

ChatGPT가 정말로 세계를 장악하게 될까요?

ChatGPT는 OpenAI가 개발한 신기술로, 인간의 의사소통을 매우 잘 모방하여 많은 사람들이 이 기술이 곧 전 세계와 그 안의 모든 직업을 장악할 것이라고 믿고 있습니다.

2월 8일 브라운 대학교 카니 뇌 과학 연구소에서 주최한 교류에서 서로 다른 연구 분야의 두 학자가 인공 지능과 인간 지능의 유사점에 대해 논의했습니다.

ChatGPT의 신경과학에 대한 토론을 통해 참석자들은 현재 기계 학습 모델을 엿볼 수 있었습니다.

Google AI의 컴퓨터 과학 조교수이자 연구 과학자인 Ellie Pavlick은 신기술에 대한 모든 소문에도 불구하고 모델이 그다지 복잡하거나 새롭지도 않다고 말했습니다.

그녀는 가장 기본적인 수준에서 ChatGPT가 문장의 다음 단어, 다음 표현 등을 예측하도록 설계된 기계 학습 모델이라고 설명했습니다.

Pavlick은 이러한 유형의 예측 학습 모델이 수십 년 동안 존재해 왔다고 말했습니다. 컴퓨터 과학자들은 오랫동안 이러한 행동을 보여주고 인간과 자연어로 대화할 수 있는 모델을 구축하려고 노력해 왔습니다. 이를 위해서는 모델이 기존 컴퓨팅 구성 요소의 데이터베이스에 액세스하여 지나치게 복잡한 아이디어에 대해 "추론"할 수 있어야 합니다.

새로운 점은 ChatGPT가 훈련되거나 개발되는 방식입니다. Pavlick이 말했듯이 "인터넷의 모든 문장"이라는 헤아릴 수 없을 만큼 많은 양의 데이터에 액세스할 수 있습니다.

“ChatGPT 자체는 변곡점이 아닙니다.”라고 Pavlick은 말했습니다. "변곡점은 지난 5년 동안 본질적으로 동일한 구조 모델이 증가했지만 점점 더 커지는 시점이었습니다. 무슨 일이 일어나고 있는지는 크기가 커질수록 성능도 좋아진다는 것입니다."

방법 ChatGPT와 경쟁업체가 대중에게 무료로 제공된다는 점도 참신합니다. Pavlick은 1년 전만 해도 ChatGPT와 같은 시스템과 상호 작용하려면 학생, 교수진 및 직원만 특정 권한 도구를 사용하여 사용할 수 있는 전용 시스템인 Brown의 Compute Grid와 같은 시스템에 액세스해야 한다고 말했습니다. 상당한 수준의 기술적 숙련도.

하지만 이제는 기술적 능력에 관계없이 누구나 ChatGPT의 세련되고 간소화된 인터페이스를 사용할 수 있습니다.

CHATGPT는 정말 인간처럼 생각할까요?

이렇게 방대한 데이터 세트로 컴퓨터 시스템을 훈련한 결과 일반적인 패턴을 인식하고 매우 현실적인 기사, 이야기, 시, 대화를 생성할 수 있는 것으로 보입니다. , 드라마 등

가짜 뉴스 보고서와 가짜 과학적 발견을 생성할 수 있으며 놀랍도록 유효한 모든 종류의 결과, 즉 "출력"을 생성할 수 있습니다.

결과의 타당성으로 인해 많은 사람들은 기계 학습 모델이 인간처럼 생각할 수 있다고 믿게 되었습니다. 하지만 그것들은 어떻습니까?

ChatGPT는 인공 신경망이라고 인지, 언어, 심리학 및 컴퓨터 과학 교수인 Thomas Serre가 설명합니다. 이는 하드웨어와 프로그래밍이 뇌의 뉴런 단순화에서 영감을 받아 상호 연결된 노드 세트를 기반으로 한다는 것을 의미합니다.

Serre는 컴퓨터 두뇌와 인간 두뇌가 새로운 정보를 학습하고 이를 사용하여 작업을 수행하는 방식에 실제로 많은 흥미로운 유사점이 있다고 말합니다.

"적어도 표면적으로는 ChatGPT와 같은 알고리즘이 언어 정보를 처리하기 위해 사용하고 활용하는 단어 및 문장 표현의 유형과 뇌가 수행하는 작업 사이에 연관성이 있을 수 있다는 연구 결과가 있습니다." 말했다.

예를 들어 ChatGPT의 백본은 Transformer 네트워크라고 불리는 최첨단 인공 신경망입니다. 자연어 처리 연구에서 파생된 이러한 네트워크는 최근 인공지능 분야 전체를 장악하게 되었습니다.

Transformer 네트워크에는 컴퓨터 과학자들이 "self-attention"이라고 부르는 특별한 메커니즘이 있는데, 이는 인간 두뇌에서 발생하는 것으로 알려진 주의 메커니즘과 관련이 있습니다.

인간 두뇌와의 또 다른 유사점은 기술을 매우 발전시키는 핵심 측면이라고 Serre는 말했습니다.

과거에는 언어를 배우고 사용하거나 이미지 인식을 수행하기 위해 컴퓨터의 인공 신경망을 훈련하려면 과학자들이 데이터베이스 구축 및 개체 범주 라벨링과 같은 지루하고 시간이 많이 걸리는 수동 작업을 수행해야 한다고 그는 설명했습니다.

ChatGPT에서 사용되는 것과 같은 현대의 대규모 언어 모델은 이러한 명시적인 인간 감독 없이 훈련될 수 있습니다. 그리고 이것은 Serre가 예측 코딩 이론이라는 영향력 있는 뇌 이론이라고 부르는 것과 관련이 있는 것으로 보입니다. 이는 누군가가 말하는 것을 들을 때 뇌가 끊임없이 예측을 하고 다음에 무슨 말을 할지 예상한다는 것을 가정합니다.

이 이론은 수십 년 전에 제안되었지만 Searle은 아직 신경과학에서 완전히 테스트되지 않았다고 말했습니다. 그러나 현재 많은 양의 실험 작업을 추진하고 있습니다.

“적어도 이 두 가지 수준에서는 이 네트워크의 핵심 엔진에 있는 주의 메커니즘이 무슨 말이 나올지 지속적으로 예측하고 있다고 말하고 싶습니다. 이는 매우 대략적인 수준에서 신경 과학과 관련된 아이디어와 관련이 있는 것으로 보입니다. " Serre가 댓글을 달았습니다.

최근 연구에서는 대규모 언어 모델이 사용하는 전략을 실제 두뇌 프로세스와 연결하면서 다음과 같이 말했습니다. “아직 배워야 할 것이 많지만 신경과학 분야의 연구가 점점 늘어나고 있어 이러한 대규모 언어 모델의 역할과 시각적 모델이 수행하는 작업이 [ 컴퓨터에서]는 우리가 자연어를 처리할 때 우리 두뇌가 하는 일과 전혀 관련이 없습니다.”

더 어두운 관점에서 보면 인간의 학습 과정이 편견이나 부패에 취약한 것처럼 인공지능 모델도 마찬가지입니다. Serre는 이러한 시스템이 통계적 상관관계를 통해 학습한다고 말했습니다. 데이터 세트를 지배하는 정보는 무엇이든 다른 정보를 대신하여 밀어낼 것입니다.

“이것은 언어에만 국한되지 않는 인공지능이 중점을 두고 있는 분야입니다.”라고 Serre는 말했습니다. 그는 인터넷에서 백인 남성이 과도하게 대표되면서 일부 얼굴 인식 시스템이 백인이나 남성으로 보이지 않는 얼굴을 인식하지 못할 정도로 편견을 갖게 되었다고 언급했습니다.

"시스템은 우리가 제공하는 교육 데이터만큼만 우수하며, 교육 데이터가 처음부터 그다지 좋지 않다는 것을 알고 있습니다."라고 Serre는 말했습니다.

특히 이러한 시스템의 규모와 탐욕스러운 식욕을 고려할 때 데이터도 무한하지 않다고 그는 덧붙였습니다.

Pavlick은 최신 버전의 ChatCPT에는 유해하거나 혐오스러운 콘텐츠를 방지하는 데 도움이 되는 가드레일 역할을 하는 강화 학습 레이어가 포함되어 있다고 말했습니다. 그러나 이것들은 아직 진행 중인 작업입니다.

"도전의 일부는... 모델에 규칙을 부여할 수 없다는 것입니다. '절대 이런 저런 것을 생성하지 마세요'라고만 말할 수는 없습니다."라고 Pavlick은 말했습니다.

"예를 통해 배우기 때문에 해야 할 일에 대한 예를 많이 제시한 다음 '이러지 마세요. 이렇게 하세요. 그래서 나쁜 일을 하게 만드는 작은 트릭을 찾는 것이 항상 가능합니다. '"

CHATGPT는 꿈을 꾸지 않습니다

인간의 뇌와 신경망의 다른 영역은 수면 중, 특히 꿈을 꾸는 동안입니다. AI가 생성한 텍스트나 이미지는 초현실적이고 추상적이거나 터무니없어 보일 수 있지만 생물학적 꿈 과정과 AI를 생성하는 계산 과정 사이의 기능적 유사성 개념을 뒷받침하는 증거는 없다고 Pavlick은 말했습니다.

ChatGPT와 같은 애플리케이션은 항상성 시스템이라는 점을 이해하는 것이 중요하다고 말했습니다. 즉, 오프라인에서는 지속적으로 개선될 수 있지만 온라인에서는 실시간으로 진화하거나 변화하지 않습니다.

“[ChatGPT]가 알고 있는 것이나 뇌에서 일어나는 일을 확고히 하기 위해 새로운 방식으로 사물을 재생하고 생각하고 결합하려고 노력하는 것과는 다릅니다.”라고 Pavlik은 말했습니다.

"완료에 가깝습니다. 이것이 시스템입니다. 우리는 이를 네트워크를 통한 전달이라고 부릅니다. 피드백이 없습니다. 방금 수행한 작업에 대한 반영이 없으며 업데이트할 방법도 없습니다.

Pavlick은 다음과 같이 말합니다." 예를 들어 AI가 크렙스 사이클에 대한 랩 노래나 누군가의 개에 대한 환각적인 이미지를 만들도록 요청하면 출력이 창의적으로 보일 수 있지만 실제로는 시스템이 수행한 작업일 뿐입니다. .

인간 언어 사용자와 달리 각 출력은 각 후속 출력을 자동으로 변경하거나 기능을 향상하거나 사람들이 꿈이 작동한다고 생각하는 방식으로 작동하지 않습니다.

Serre와 Pavlick은 인간 지능이나 인공 지능에 관해 논의할 때 과학자들이 두 시스템에 대해 아직 배울 것이 많다는 점을 주의해야 한다고 강조합니다.

ChatGPT에 대한 과대 광고, 특히 인간보다 거의 더 인간적인 챗봇을 만드는 신경망의 성공에 대해 Pavlick은 특히 기술 및 엔지니어링 관점에서 그럴 자격이 있다고 말합니다.

“매우 흥미롭습니다!”라고 그녀는 말했습니다. "우리는 오랫동안 이런 시스템을 원했습니다.

"

위 내용은 ChatGPT가 정말로 세계를 장악하게 될까요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제