3월 15일 현지시각 화요일 인공지능연구소OpenAI에서 최신 버전의 대형 언어 모델 GPT-4를 출시했습니다. 오랫동안 기다려온 이 고급 도구는 자동으로 텍스트를 생성할 수 있을 뿐만 아니라 이미지 콘텐츠를 설명하고 분석할 수도 있습니다. 이는 인공 지능 물결의 기술 수준을 높일 뿐만 아니라 기술 개발의 윤리적 경계를 점점 더 무시하기 어렵게 만듭니다.
OpenAI의 초기 온라인 채팅로봇ChatGPT는 자동으로 생성되는 부드러운 텍스트로 많은 주목을 받았고, 논문과 허구의 대본을 작성하는 능력에 대해 대중을 불안하게 만들었습니다. 아시다시피 ChatGPT는 1년 이상 전에 구식 기술인 GPT-3을 여전히 사용하고 있습니다.
반면, 최첨단 GPT-4 모델은 자동으로 텍스트를 생성할 수 있을 뿐만 아니라 간단한 사용자 요구 사항에 따라 이미지를 설명할 수도 있습니다. 예를 들어 GPT-4에게 한쪽 끝에 공이 달린 나무 시소에 매달려 있는 권투 글러브 사진을 보여주고 사용자가 글러브가 떨어지면 어떻게 되는지 물으면 GPT-4는 글러브가 공을 맞을 것이라고 응답합니다. 시소, 공을 날려 보내는 것.
초기 테스터들은 GPT-4가 새로운 것을 추론하고 배우는 능력이 매우 발전했다고 주장했습니다. 마이크로소프트도 지난달 출시한 빙(Bing) 인공지능 챗봇이 GPT-4를 사용하고 있다고 화요일 밝혔다.
개발자들은 화요일에 이 기술이 사람들의 일과 삶에 더욱 혁명을 일으킬 것이라고 말했습니다. 그러나 이는 인간이 어떻게 그렇게 끔찍할 정도로 정교한 기계와 경쟁할 수 있는지, 그리고 사람들이 온라인에서 보는 내용을 어떻게 신뢰할 수 있는지에 대한 대중의 우려를 불러일으키기도 합니다.
OpenAI 경영진은 텍스트와 이미지 전반에 걸친 GPT-4의 '다중 양식'이 ChatGPT보다 '고급 추론 기능'에서 훨씬 우수하다고 말했습니다. 회사는 GPT-4의 이미지 설명 기능의 오용 우려로 출시를 연기했으며, GPT-4가 지원하는 ChatGPT Plus 서비스 가입자는 텍스트 기능만 사용할 수 있다.
OpenAI 정책 연구원인 Sandhini Agarwal은 회사가 잠재적인 위험을 더 잘 이해하기 위해 아직 이 기능을 출시하지 않았다고 말했습니다. OpenAI 대변인 니코 펠릭스(Niko Felix)는 OpenAI가 “이미지 속 개인정보가 식별되는 것을 방지하기 위한 보호 장치를 구현할 계획”이라고 말했습니다.
OpenAI는 또한 GPT-4가 "환각 생성", 말도 안되는 소리, 사회적 편견의 영속화, 형편없는 조언 제공과 같은 일반적인 실수를 계속할 것이라고 인정했습니다.
Microsoft는 인공 지능 기술이 자사의 사무용 소프트웨어, 검색 엔진 및 기타 온라인 제품의 핵심 기능이 될 수 있기를 희망하면서 OpenAI에 수십억 달러를 투자했습니다. 회사는 소프트웨어 개발자가 팀 전체의 작업을 완료하도록 돕는 등 반복적인 작업을 처리하고 사람들이 창의적인 작업에 집중할 수 있는 초효율 파트너로서 이 기술을 홍보합니다.
그러나 인공지능을 우려하는 일부 사람들은 이것이 단지 증상일 수도 있고 인공지능이 누구도 예측할 수 없는 비즈니스 모델과 위험으로 이어질 수 있다고 말합니다.
인공지능의 급속한 발전과 ChatGPT의 인기로 인해 업계 내 기업들은 인공지능 분야의 주도권을 놓고 새로운 소프트웨어를 출시하기 위한 치열한 경쟁을 벌이고 있습니다.
이 열풍은 많은 비난을 받기도 했습니다. 많은 사람들은 이들 회사가 테스트되지 않고, 규제되지 않고, 예측할 수 없는 기술을 서둘러 출시하면 사용자를 속이고, 아티스트의 작업을 훼손하고, 실제 피해를 입힐 수 있다고 믿습니다.
AI 언어 모델은 설득력 있는 문구를 생성하도록 설계되었기 때문에 잘못된 답변을 제공하는 경우가 많습니다. 또한 이러한 모델은 인터넷의 정보와 이미지를 사용하여 훈련되고 인간의 편견을 모방하는 방법을 학습합니다.
OpenAI 연구원들은 기술 보고서에서 "GPT-4 및 유사한 인공 지능 시스템이 널리 채택됨에 따라" "내재된 통찰력을 강화할 것"이라고 썼습니다.
OpenAI의 전 연구원이자 오픈 소스 인공 지능 회사인 Hugging Face의 정책 이사인 Irene Solaiman은 이러한 기술 발전의 속도를 위해서는 사회 전체가 잠재적인 문제에 적시에 대응해야 한다고 믿습니다.
그녀는 이어 "모델이 초래해서는 안 되는 일부 피해에 대해서는 사회로서 이미 폭넓은 합의에 도달했다"면서 "많은 피해는 미묘하고 주로 소수 집단에 영향을 미친다"고 덧붙였다. “AI 성능에서 부차적인 고려 사항이 될 수 없습니다.”
최신 GPT-4도 완전히 안정적이지는 않습니다. 사용자가 AI 도구의 GPT-4 업그레이드를 축하하자 "나는 아직도 GPT-3 모델이다"라는 반응이 나왔다. 그러다가 수정 후 이에 대해 사과하며 "GPT-4로서 축하해주셔서 감사합니다!"라고 말했고, 사용자는 실제로는 여전히 GPT-3 모델이라고 농담을 했고, AI는 이렇게 다시 사과했다. "실제로 GPT-4가 아닌 GPT-3 모델입니다."
OpenAI 대변인 Felix는 회사 연구팀이 문제가 있는 곳을 조사하고 있다고 말했습니다.
화요일 인공지능 연구자들은 OpenAI가 충분한 정보를 공개하지 않는다고 비난했습니다. 회사는 GPT-4의 편견 평가에 대한 데이터를 공개하지 않았습니다. 또한 열정적인 엔지니어들은 GPT-4 모델, 데이터 세트 또는 훈련 방법에 대한 세부 정보가 거의 없다는 사실에 실망했습니다. OpenAI는 기술 보고서에서 "경쟁 환경 및 보안 영향"으로 인해 이러한 세부 정보를 공개하지 않을 것이라고 밝혔습니다.
GPT-4가 운영하는 다감각 인공지능 분야는 경쟁이 매우 치열합니다. 구글 모회사 알파벳이 소유한 인공지능 회사 딥마인드는 지난해 이미지를 묘사하고 비디오 게임을 할 수 있는 만능 모델인 가토(Gato)를 출시했다. 구글은 이번 달 인공지능 비전과 언어 분석을 단일 팔 로봇에 통합한 다중 모드 시스템인 PaLM-E를 출시했습니다. 예를 들어, 누군가 칩을 집으라고 요청하면 요청을 이해하고 서랍을 돌려 적절한 개체를 선택할 수 있습니다.
유사한 시스템은 기술의 잠재력에 대해 무한한 낙관론을 불러일으켰으며, 일부에서는 인간과 거의 동등한 지능 수준을 보기도 했습니다. 그러나 비평가와 AI 연구자들이 주장하는 것처럼 이러한 시스템은 의미에 대한 명확한 이해 없이 반복되는 훈련 데이터에서 확립된 패턴과 고유한 상관관계를 단순히 찾을 뿐입니다.
GPT-4는 2017년에 개발된 획기적인 신경망기술 "변환기"를 기반으로 하는 OpenAI가 2018년 처음 출시된 이후 네 번째 "생성 사전 훈련된 변환기"입니다. 온라인에서 텍스트와 이미지를 분석하여 "사전 훈련"된 이러한 시스템은 인공 지능 시스템이 인간의 음성과 이미지를 분석하는 방식을 급속하게 발전시켰습니다.
수년에 걸쳐 OpenAI는 인공지능 도구를 대중에게 공개하는 데 따른 잠재적인 사회적 위험도 근본적으로 변화시켰습니다. 2019년 회사는 AI의 성능이 매우 뛰어나지만 이를 사용하는 '악성 애플리케이션'이 우려된다며 GPT-2 공개를 거부했다.
그러나 작년 11월 OpenAI는 GPT-3의 미세 조정된 버전을 기반으로 ChatGPT를 공개적으로 출시했습니다. 출시 며칠 만에 이용자 100만명을 돌파했다.
ChatGPT 및 Bing 챗봇을 사용한 공개 실험은 기술이 사람의 개입 없이는 완벽한 성능을 발휘하지 못한다는 것을 보여줍니다. 일련의 이상한 대화와 잘못된 답변 이후 마이크로소프트 경영진은 AI 챗봇이 정답을 제공하는 데 있어 여전히 신뢰할 수 없다는 점을 인정하면서도 이 문제를 해결하기 위해 '신뢰도 지표'를 개발 중이라고 밝혔습니다.
GPT-4는 기술 블로거 Robert Scoble과 같은 AI 옹호자들이 "GPT-4는 누구도 예상했던 것보다 낫다"고 주장하면서 일부 단점을 개선할 것을 약속합니다.
OpenAI CEO인 Sam Sam Altman은 GPT-4에 대한 기대를 완화하려고 노력했습니다. . 그는 지난 1월 GPT-4의 성능에 대한 추측이 불가능할 수준에 이르렀다고 말하면서 "GPT-4에 대한 소문은 터무니없다"고 "그들은 실망할 것"이라고 말했습니다.
하지만 알트만은 OpenAI의 비전도 홍보하고 있습니다. 그는 지난달 블로그 게시물에서 회사가 '인공보편에너지'(AGI)를 통해 '모든 인류'의 이익을 보장할 방법을 계획하고 있다고 밝혔습니다. 이 업계 용어는 인간만큼 똑똑하거나, 심지어 인간보다 더 똑똑한 초인공지능을 갖는다는 아직까지는 비현실적인 생각을 일컫는다.
위 내용은 GPT-4에 대한 외신 논평: 인공지능 분야의 거대한 도약과 기술 윤리의 또 다른 큰 변화의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!