OpenAI 공동 창립자 Greg Brockman과 수석 과학자 Ilya Sutskever가 GPT-4의 성능을 평가하고 보안 문제와 오픈 소스 논란에 대해 설명합니다.
GPT-4가 공개되자 업계와 학계 전체가 폭발했다는 것은 의심의 여지가 없습니다.
강력한 추론과 다중 모드 기능으로 많은 열띤 토론을 불러일으켰습니다.
그러나 GPT-4는 개방형 모델이 아닙니다.
OpenAI는 GPT-4의 수많은 벤치마크와 테스트 결과를 공유했지만, 기본적으로 훈련에 사용된 데이터나 비용, 모델 생성에 사용된 방법을 제공하지 않았습니다.
물론 OpenAI는 그러한 "독점적 비밀"을 공개하지 않을 것입니다.
마커스는 OpenAI의 원래 의도를 직접 꺼내서 조롱의 물결을 올렸습니다.
네티즌들이 버전을 개선했습니다.
OpenAI의 사장이자 공동 창립자인 Greg Brockman이 GPT-4와 GPT-3를 비교했을 때 그는 한 단어가 다르다고 말했습니다.
"그냥 다릅니다. 모델에는 여전히 많은 문제와 버그가 있습니다...하지만 실제로 미적분이나 법칙과 같은 분야의 기술이 향상되는 것을 볼 수 있습니다. 일부 영역에서는 성능이 매우 낮았지만 인간과 경쟁할 만큼 진화했습니다. "
GPT-4의 테스트 결과는 매우 좋습니다. AP Calculus BC 시험에서 GPT-4는 4점을 얻었고 GPT-3는 1점을 얻었습니다. 모의 변호사 시험에서 GPT-4는 응시자의 상위 10% 정도의 점수로 합격했습니다. GPT-3.5 점수는 하위 10%에 머물었습니다.
문맥 능력, 즉 텍스트를 생성하기 전에 기억할 수 있는 텍스트의 측면에서 GPT-4는 약 50페이지의 내용을 기억할 수 있으며 이는 GPT-3의 8배입니다.
프롬프트 측면에서 GPT-3 및 GPT-3.5는 "기린에 대한 기사 작성"이라는 텍스트 프롬프트만 허용할 수 있는 반면, 멀티모달 GPT-4는 그림 및 텍스트 프롬프트를 허용할 수 있습니다. 기린 사진 제공 그림 "여기 기린은 몇 마리 있나요?"라는 질문을 던집니다. 이 GPT-4는 정확하게 대답할 수 있고, 밈을 읽는 능력도 매우 강합니다!
그리고 엄청나게 강력한 GPT-4가 출시되자마자 수많은 연구자와 전문가들의 관심을 불러일으켰습니다. 하지만 실망스러운 점은 OpenAI가 출시한 GPT-4가 "개방형 AI 모델"이 아니라는 점입니다.
OpenAI는 GPT-4에 대한 수많은 벤치마크, 테스트 결과 및 흥미로운 시연을 공유했지만 기본적으로 교육을 제공하지 않습니다. 시스템에 대한 데이터, 에너지 비용 또는 이를 생성하는 데 사용된 특정 하드웨어나 방법에 대한 정보입니다.
Meta의 LLaMa 모델이 이전에 유출되었을 때 오픈 소스에 대한 논의가 쇄도했습니다. 그러나 이번에는 GPT-4 폐쇄형 모델에 대한 모든 사람의 초기 반응이 대부분 부정적이었습니다.
인공지능 커뮤니티는 일반적으로 이것이 OpenAI의 연구 기관으로서의 창립 정신을 훼손할 뿐만 아니라 다른 사람들이 위협에 대처하기 위한 보호 장치를 개발하기 어렵게 만든다고 믿습니다.
노믹 AI(Nomic AI) 정보 디자인 부사장 벤 슈미트(Ben Schmidt)는 GPT-4가 어떤 데이터로 훈련됐는지 알 수 없기 때문에 모든 사람이 시스템이 어디에서 사용하기에 안전한지 파악하고 수리 솔루션을 제안하기 어렵다고 말했다.
“사람들이 이 모델이 작동하지 않는 곳을 알기 위해서는 OpenAI가 GPT-4가 수행하는 작업과 그것이 내리는 가정을 더 잘 이해해야 합니다. 눈이 내리는 기후에서는 누군가를 신뢰하지 않을 것입니다. 훈련된 자율주행차는 실제로 사용해야만 허점과 문제가 드러날 가능성이 매우 높기 때문이다." 이와 관련하여 OpenAI의 수석 과학자이자 공동 창업자인 Ilya Sutskever는 다음과 같이 설명했습니다. OpenAI는 GPT에 대해 더 이상 공유하지 않습니다. -4 정보가 경쟁에 대한 두려움과 보안에 대한 우려 때문이라는 것은 의심할 여지가 없습니다.
"외부 경쟁이 치열하고 GPT-4 개발이 쉽지 않습니다. 거의 모든 OpenAI 직원이 오랫동안 함께 일해 이 제품을 만들어냈습니다. 경쟁 측면에서 보면 원하는 회사가 아주 많습니다. 같은 일을 하면 GPT-4는 성숙한 열매와 같습니다."
우리 모두 알고 있듯이 OpenAI는 2015년 설립 당시 비영리 단체였습니다. 창립자로는 Sutskever, 현재 CEO인 Sam Altman, 사장 Greg Brockman, 그리고 현재 OpenAI를 떠난 Musk가 있습니다.
Sutskever 등은 조직의 목표가 주주뿐만 아니라 모든 사람을 위한 가치를 창출하는 것이라고 밝혔으며, 현장의 모든 당사자와 "자유롭게 협력"할 것이라고 밝혔습니다.
그러나 수십억 달러의 투자(주로 Microsoft로부터)를 얻기 위해 OpenAI에는 여러 가지 상업적 속성이 부여되었습니다.
그러나 OpenAI가 연구 공유 방식을 바꾼 이유를 묻는 질문에 Sutskever는 간단히 다음과 같이 대답했습니다.
"우리는 틀렸습니다. 어느 시점에서는 AI/AGI가 극도로 강력해질 것이며, 그 시점에서 오픈소스는 의미가 없게 될 것입니다. 몇 년 안에 모든 사람이 오픈소스 AI가 현명하지 못하다는 것을 완전히 이해하게 될 것으로 예상할 수 있습니다. 이 모델은 매우 강력하기 때문에 누군가가 원한다면 많은 피해를 입히기가 매우 쉬울 것이므로 모델의 능력이 점점 높아질수록 공개하고 싶지 않은 것이 합리적입니다."
William Falcon, Lightning AI의 CEO이자 오픈 소스 도구인 PyTorch Lightning의 창시자는 비즈니스 관점에서 다음과 같이 설명했습니다. "회사로서 귀하는 이를 수행할 모든 권리가 있습니다."
동시에 Brockman은 채택을 믿습니다. GPT-4는 OpenAI가 위험과 이점을 평가함에 따라 천천히 진행되어야 합니다.
"얼굴 인식, 사람의 이미지를 어떻게 대해야 하는지 등 일부 정책 문제를 해결해야 합니다. 위험 구역이 어디인지, 레드 라인이 어디인지 파악한 다음 이러한 점을 천천히 명확하게 해야 합니다.
" 그리고 진부한 표현은 GPT-4가 나쁜 일을 하는 데 사용될 위험이 있다는 것입니다.
이스라엘 사이버 보안 스타트업인 Adversa AI는 OpenAI의 콘텐츠 필터를 우회하고 GPT-4가 피싱 이메일, 동성애자에 대한 성적인 설명, 기타 매우 불쾌한 텍스트를 생성하도록 허용하는 방법을 보여주는 블로그 게시물을 게시했습니다.
따라서 많은 사람들은 GPT-4가 적당히 상당한 개선을 가져오기를 바라고 있습니다.
이에 대해 Brockman은 GPT-4의 기능을 이해하기 위해 많은 시간을 투자했으며 해당 모델은 6개월간 보안 교육을 받았다고 강조했습니다. 내부 테스트에서 GPT-4는 OpenAI의 사용 정책에서 허용되지 않는 콘텐츠에 응답할 가능성이 GPT-3.5보다 82% 낮았으며 "사실적인" 응답을 생성할 가능성은 40% 더 높았습니다.
그러나 Brockman은 이와 관련하여 GPT-4에 단점이 있음을 부정하지 않습니다. 그러나 그는 모델의 새로운 완화 지향 도구인 "시스템 정보"라고 불리는 API 수준 기능을 강조했습니다.
시스템 메시지는 본질적으로 GPT-4 상호 작용의 분위기를 설정하고 경계를 설정하는 지침입니다. 이처럼 시스템 정보를 가드레일로 활용하면 GPT-4가 해당 방향에서 벗어나는 것을 방지할 수 있다.
예를 들어, 시스템 메시지의 페르소나는 다음과 같을 수 있습니다. "당신은 항상 소크라테스 방식으로 질문에 대답하는 교사입니다. 당신은 학생들에게 결코 대답을 주지 않지만 항상 올바른 질문을 하고 그들이 생각하는 법을 배우도록 도우려고 노력합니다. "
사실 어느 정도 Sutskever도 비평가들의 의견에 동의합니다. "더 많은 사람들이 이러한 모델을 기꺼이 연구한다면 우리는 그들에 대해 더 많이 알게 될 것입니다. 그것은 좋은 일입니다. ”
그래서 OpenAI는 이러한 이유로 특정 학술 및 연구 기관에 시스템에 대한 액세스를 제공합니다.
그리고 Brockman은 인공 지능 모델의 성능을 평가하기 위한 OpenAI의 새로운 오픈 소스 소프트웨어 프레임워크인 Evals도 언급했습니다.
Evals는 모델 테스트를 위해 크라우드소싱을 사용하여 사용자가 GPT-4와 같은 모델을 평가하기 위한 벤치마크를 개발하고 실행할 수 있도록 하며, 이는 또한 "건전한" 모델에 대한 OpenAI의 약속의 표시 중 하나입니다.
「Evals를 통해 사용자가 관심을 갖는 사용 사례를 볼 수 있고 체계적인 형태로 테스트할 수 있습니다. 우리가 오픈 소스인 이유 중 하나는 3개월마다 새로운 모델을 출시하는 것에서 계속해서 새로운 모델을 개선하고 있어요. 새로운 모델 버전을 만들면 최소한 오픈소스를 통해 어떤 변화가 있는지 알 수 있죠.”
실제로 연구 공유에 대한 논의가 꽤 뜨겁습니다. 한편으로는 Google 및 Microsoft와 같은 거대 기술 기업이 이전의 윤리적 우려를 제쳐두고 자사 제품에 AI 기능을 추가하기 위해 서두르고 있습니다. 반면에 Microsoft는 최근 AI 제품이 윤리를 준수하도록 전담하는 팀을 해고했습니다. ; 기술의 급속한 발전으로 인해 인공지능에 대한 우려가 높아졌습니다.
영국 AI 정책 책임자인 Jess Whittlestone은 이러한 다양한 압력의 균형을 맞추는 것이 심각한 거버넌스 문제를 야기하며, 이는 참여하려면 제3자 규제 기관이 필요할 수 있음을 의미한다고 말했습니다.
"GPT-4에 대한 자세한 내용을 공유하지 않는 OpenAI의 의도는 좋지만, 이는 인공 지능 세계의 권력 집중화로 이어질 수도 있습니다. 이러한 결정은 개별 기업이 내려서는 안 됩니다."
Whittlestone은 다음과 같이 말했습니다. 이상적인 상황은 여기서 관행을 성문화하고 독립적인 제3자가 특정 모델과 관련된 위험을 검토하도록 해야 한다는 것입니다.”
위 내용은 GPT-4는 너무 강력해서 OpenAI가 공개를 거부합니다! 수석 과학자: 오픈 소스는 스마트하지 않습니다. 이전에는 우리가 틀렸습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!