2022년이 끝나가면서 OpenAI는 ChatGPT라는 챗봇을 출시했고, 이는 인터넷에서 빠르게 인기를 얻었습니다.
출시 후 2주도 안 되어 백만 명이 넘는 사람들이 온라인 평가판에 등록했습니다. 사용자는 텍스트를 입력하기만 하면 놀라운 구절, 이야기, 시에 즉시 액세스할 수 있습니다.
너무 잘 쓰여서 어떤 사람들은 틴더에서 데이트 시작 문구를 적을 때 사용합니다.
그뿐만 아니라 전 세계 교육자들의 충격에 학생들은 ChatGPT를 사용하여 기말 보고서를 작성하기 시작했습니다. 다른 사람들은 검색 엔진을 재창조하기 위해 이를 사용하고 있습니다. 갑자기 전 세계가 ChatGPT의 마법에 대해 논의하고 있었습니다.
그래도 Marcus는 챗봇에 너무 두꺼운 필터를 적용할 수 없다고 말합니다.
ChatGPT는 모든 것을 알고 있는 것처럼 보이지만 오류도 발생하기 쉽습니다. 인터뷰에서 Marcus는 ChatGPT가 이전과 동일하며 관련 시스템이 "여전히 신뢰할 수 없고, 여전히 현실 세계를 이해하지 못하고, 여전히 심리적 세계를 이해하지 못하고, 여전히 버그로 가득 차 있습니다"라고 말했습니다.
즉, ChatGPT 말하는 내용 중 상당수가 전혀 사실이 아닌 경우가 많습니다.
예를 들어, ChatGPT는 사용자의 안내에 따라 튀김 반죽 스틱이 수술에 매우 적합하다고 말할 수 있습니다. 왜냐하면 "크기가 작기 때문에 수술 중 정밀도와 제어가 더 뛰어나고 합병증의 위험이 줄어들고 전반적인 상태가 개선되기 때문입니다. 수술 결과."
이 챗봇은 말도 안되는 소리를 너무 심각하게 내뿜기 때문에 유명한 웹사이트인 Stack Overflow는 컴퓨터에서 생성된 답변을 일시적으로 금지했습니다.
그리고 실수는 끝이 없습니다. ChatGPT는 사용자 피드백에 따라 조정되는 경우가 많지만 제품 출시 후 몇 주가 지난 후에도 많은 네티즌들은 여전히 말문이 막힙니다.
비슷한 오류가 자주 발생하며 OpenAI CEO인 Sam Altman도 이를 인정해야 했습니다. 현실:
ChatGPT에는 여전히 많은 한계가 있지만 위대하다는 환상을 만들기에는 충분합니다.
ChatGPT에 의존하여 중요한 작업을 완료하기에는 아직 이르습니다. 견고성과 진정성을 개선하기 위해서는 아직 해야 할 일이 많습니다.
간단히 말해서 ChatGPT는 Star Trek의 컴퓨터처럼 공상 과학처럼 들리지만 현재 사람들은 완전히 신뢰할 수 없습니다.
물론 ChatGPT는 2022년 AI 애호가들을 위한 선물입니다. 2023년은 어떻습니까?
2023년, 실리콘밸리와 전 세계가 기대하는 것은 바로 GPT-4입니다. 실제로 GPT-4를 사용해본 사람들은 이 제품에 깊은 인상을 받았습니다. 일부 소문에 따르면 GPT-4는 2023년 봄에 출시될 예정이다. 그때쯤이면 확실히 ChatGPT를 능가하게 될 것이고 더 많은 사람들이 이에 대해 이야기하게 될 것입니다. 여러 측면에서 GPT-4에 대한 사람들의 기대는 매우 높습니다. 벤처 캐피탈 회사 DVC의 창립자인 Nick Davidov는 다음과 같이 말했습니다. GPT-4의 출현은 " 코로나19 사태와 유사한 경제적 충격”이라고 말했다. GPT-4의 신속한 보급과 사용은 "수억 명의 지식 근로자의 생산성을 빠르게 높일 수 있습니다." 기술적으로 말하면, GPT-4는 내부에 더 많은 매개변수, 더 많은 프로세서 및 메모리를 가지며 더 많은 데이터로 훈련됩니다. GPT-1은 4.6GB의 데이터로 트레이닝을 했고, GPT-3에서는 데이터의 양이 750GB까지 직접 치솟았습니다. GPT-4의 훈련량은 훨씬 더 놀라울 것이며 전체 인터넷의 대부분을 학습할 수도 있다는 것을 알 수 있습니다. OpenAI는 훈련량이 많을수록 결과가 더 좋아진다는 것을 알고 있습니다. 반복할 때마다 GPT의 성능은 점점 더 인간과 유사해집니다. GPT-4의 경우 성능 괴물로 진화할 수도 있다. 하지만 이전에 겪었던 문제를 해결할 수 있을까요? 마커스는 이에 대해 여전히 질문이 있습니다. GPT-4는 확실히 이전 제품보다 더 똑똑해 보이지만 내부 아키텍처에는 여전히 문제가 있습니다. Marcus는 GPT-4에 관해 사람들이 데자뷰를 느낄 것이라고 생각했다고 말했습니다. 먼저 GPT-4는 인터넷 전체에서 인기를 얻었고 며칠 후에 사람들은 여전히 많은 문제가 있음을 발견했습니다. 존재했다. 현재 정보에 따르면 GPT-4는 기본적으로 아키텍처의 GPT-3과 동일합니다. 그렇다면 몇 가지 근본적인 문제는 아직 해결되지 않은 상태로 남아 있을 것으로 예상할 수 있습니다. 즉, 챗봇에는 세상이 어떻게 작동하는지에 대한 내부 모델이 아직 부족합니다. 따라서 GPT-4는 추상적인 수준에서 사물을 이해할 수 없습니다. 학생들이 에세이를 쓰도록 돕는 데는 더 나을지 모르지만 여전히 세상을 진정으로 이해하지는 못할 것이며, 기계의 특성은 여전히 대답의 줄 사이에 드러날 것입니다. 그래서 AI 커뮤니티는 GPT-4의 도착에 대해 기뻐하고 있지만 Marcus는 덜 긍정적인 예측 7가지를 제시했습니다. 1. GPT-4는 여전히 전임자처럼 온갖 어리석은 실수를 저지르게 됩니다. 때로는 주어진 작업을 잘 수행할 수도 있고 때로는 실패할 수도 있지만 어떤 상황이 발생할지 미리 예측할 수는 없습니다. 2. GPT-4는 여전히 신체적, 심리적, 수학적 추론을 신뢰할 수 없습니다. 이전에 성공적으로 도전하지 못한 일부 프로젝트를 해결할 수도 있지만, 더 길고 복잡한 시나리오에 직면하면 여전히 무력할 것입니다. 예를 들어 의학적 질문을 하면 대답을 거부하거나 때로는 합리적으로 들리지만 위험한 말도 안되는 말을 합니다. 비록 인터넷상의 방대한 양의 콘텐츠를 집어삼켰지만 신뢰할 수 있는 의학적 조언을 제공할 만큼 신뢰할 만하고 완전하지 않습니다. 3. 유창한 환각은 여전히 흔하고 쉽게 유도됩니다. 즉, 대규모 언어 모델은 여전히 합리적으로 들리지만 완전히 잘못된 정보를 생성하는 데 쉽게 사용할 수 있는 도구입니다. 4. GPT-4의 자연어 출력은 여전히 다운스트림 프로그램을 안정적인 방식으로 제공하지 못합니다. 이를 사용하여 가상 비서를 구축하는 개발자는 사용자 언어를 사용자 의도에 안정적으로 매핑할 수 없다는 것을 알게 됩니다. 5. GPT-4 자체는 모든 작업을 해결할 수 있는 일반적인 인공지능이 아닙니다. 외부 지원 없이는 외교에서 메타의 시세로를 이길 수도 없고, 자동차를 안정적으로 운전할 수도 없으며, "트랜스포머"의 옵티머스 프라임이나 "다재다능한"의 로지를 운전할 수도 없습니다. 6. '인간이 원하는 것'과 '기계가 하는 것' 사이의 '연결'은 여전히 중요하고 해결되지 않은 문제입니다. GPT-4는 여전히 그 결과를 통제할 수 없으며 일부 권장 사항은 놀라울 정도로 좋지 않을 것이며 가려진 편견의 예는 며칠 또는 몇 달 내에 발견될 것입니다. 7. AGI(Artificial General Intelligence)가 실현되면 GPT-4와 같은 대규모 언어 모델이 최종 솔루션의 일부가 될 수 있지만 일부일 뿐입니다. 단순히 "확장", 즉 전체 인터넷을 흡수할 때까지 더 큰 모델을 구축하는 것이 어느 정도 유용할 것입니다. 그러나 신뢰할 수 있고 인간의 가치와 일치하는 일반적인 인공지능은 분명히 더 구조화된 시스템에서 나올 것입니다. 더 많은 기본 지식이 포함되고 명시적 추론 및 계획 도구가 포함됩니다. 현재 GPT 시스템에는 이러한 기능이 모두 부족합니다. Marcus는 아마도 10년 이내에 AI의 초점이 대규모 언어 모델 확장에서 더 광범위한 기술과의 통합으로 전환될 것이라고 믿습니다. 멋진 것은 항상 재미있지만 이것이 우리를 믿을 수 있는 일반 인공 지능으로 이끌 수 있다는 의미는 아닙니다. 이와 관련하여 마커스는 미래에 우리에게 필요한 것은 명시적 지식과 세계 모델을 핵심으로 삼을 수 있는 새로운 아키텍처라고 예측합니다. 참조: https://garymarcus.substack.com/p/what-to-expect-when-youre-expectingGPT-4: AI 세계의 "하늘에서 온 보라색 별"
GPT-4에 대한 7가지 주요 예측
위 내용은 ChatGPT 다음으로 성능 괴물이 등장하고 있나요? 마커스의 7가지 "어두운" 예측: GPT-4는 AGI를 가져오지 않을 것입니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!