>기술 주변기기 >일체 포함 >구글은 당황하고 있다! 논문을 발표하려면 승인을 받고 제품 개발에 우선순위를 두어야 합니다. ChatGPT가 인공지능 분야의 백조가 될까요?

구글은 당황하고 있다! 논문을 발표하려면 승인을 받고 제품 개발에 우선순위를 두어야 합니다. ChatGPT가 인공지능 분야의 백조가 될까요?

WBOY
WBOY앞으로
2023-05-17 08:16:491181검색

지난 10여 년간 AI의 급속한 발전은 대학, 기업, 개인 개발자의 협력 덕분에 오픈 소스 코드, 데이터 및 튜토리얼로 가득한 인공 지능 분야를 만들었습니다.

Google은 항상 AI 업계의 선두주자로서 자연어 처리, 컴퓨터 비전, 강화 학습 등 다양한 분야에 걸쳐 많은 기본 모델과 모델을 발표해 왔습니다. Transformer, Bert, PaLM 등의 아키텍처 .

그러나 OpenAI는 Transformer로 ChatGPT를 개발했을 뿐만 아니라 법률과 여론의 영향을 덜 받는 등 스타트업 기업의 장점에 의존했습니다. , 훈련 데이터, 모델 크기, 아키텍처 및 기타 정보를 공개할 필요가 없으며 심지어 Google과 같은 주요 회사의 많은 직원을 훔쳐하여 Google이 입지를 잃게 만들었습니다. 무도덕이 없는 OpenAI 앞에서 구글은 소극적으로 이길 수밖에 없습니다.

익명 출처에서 제공한 정보에 따르면 올해 2월

Google AI 책임자인 Jeff Dean

은 회의에서 다음과 같이 말했습니다. Google은 자체 AI 발견을 활용하여 연구실 작업 후에만 논문을 공유할 것입니다.

Google은 인공지능 분야에서 자체 성과를 활용하고 연구 결과가 제품으로 전환된 후에만 논문을 공유할 것입니다.

"방어적 국가"로 전환한 Google은 유사한 AI 기업을 모두 없애고 핵심 검색 사업과 주가를 더 잘 보호하기를 바라고 있을 수 있습니다.

그러나 AI가 이들 대기업의 오픈소스 정신이 부족해 독점으로 변한다면, 과연 인공지능 분야에서 이전의 발전 기적이 계속 일어날 것인가?

Google은 "너무 책임감이 강해서" 도난당했습니다

Google과 같이 수십억 명의 사용자를 보유한 회사에서는 소규모 실험이라도 수백만 명의 사람들에게 영향을 미치고 여론 반발을 겪을 수 있기 때문에 Google이 이를 꺼려왔습니다. 챗봇을 출시하고 "책임 있는 AI"라는 최종 목표를 고수합니다.

2015년 Google 포토는 이미지 분류 기능을 출시하여 흑인 남성을 고릴라로 잘못 분류했습니다. Google은 즉시 홍보 위기에 빠졌고 신속하게 사과하고 수정했습니다.

구글은 당황하고 있다! 논문을 발표하려면 승인을 받고 제품 개발에 우선순위를 두어야 합니다. ChatGPT가 인공지능 분야의 백조가 될까요?

구글의 정정 조치는 고릴라 태그를 직접 삭제하고, 푸들, 침팬지, 원숭이 등 카테고리까지 삭제하는 것입니다.

그 결과 이미지 분류기는 더 이상 흑인을 오랑우탄으로 인식하지 못하지만 실제 오랑우탄도 인식하지 못합니다.

구글은 수년간 인공지능 기술 개발에 많은 돈을 투자해 왔지만, 신경망의 블랙박스 비해석성으로 인해 구글은 제품화 후 제어 가능성을 완전히 보장할 수 없으며, 더 오랜 시간이 필요합니다. 보안 테스트 기간에는 선점자 이점이 사라집니다.

올해 4월 순다르 피차이 구글 CEO는 '60분' 프로그램에서 인공지능이 위조된 이미지, 영상 등 사회에 큰 해를 끼칠 수 있다는 점을 분명히 밝혔습니다.

Google이 "책임을 덜기"로 선택하면 필연적으로 더 많은 규제 기관, 인공 지능 연구원 및 비즈니스 리더의 관심을 끌 것입니다.

DeepMind 공동 창업자인 Mustafa Suleyman은 그들이 너무 조심해서가 아니라, 기존 수익원과 비즈니스 모델을 방해할 의지가 없기 때문에 진정한 외부 위협이 있을 때만 시작할 것이라고 말했습니다.

그리고 이 위협은 이미 다가왔습니다.

구글의 시간은 촉박합니다

구글은 2010년부터 인공지능 스타트업을 인수하기 시작했고, 점차 관련 기술을 자사 제품에 접목시키기 시작했습니다.

2013년 Google은 딥 러닝의 선구자이자 Turing Award 수상자인 Hinton을 합류하도록 초대했습니다(그는 1년 후 막 사임했습니다). Google은 임명된 후 스타트업 DeepMind를 6억 2,500만 달러에 인수했습니다. 구글 CEO로서 피차이는 공식 발표 직후 구글이 'AI 우선'을 기본 전략으로 채택하고 인공지능 기술을 자사의 모든 제품에 통합하겠다고 발표했다.

수년간의 집중적인 작업을 통해 Google의 인공지능 연구팀도 많은 돌파구를 만들 수 있었지만 동시에 일부 소규모 스타트업도 인공지능 분야에서 어느 정도 성과를 거두었습니다.

OpenAI는 원래 인공지능 분야 기업 인수에 대한 대규모 기술 기업의 독점을 상쇄하기 위해 설립되었습니다. OpenAI는 소규모 기업의 장점으로 조사와 감독을 덜 받고 더 빠르게 인수할 의향이 있습니다. 일반 사용자의 손에 인공지능 모델을 제공합니다.

그래서 감독 없는 인공지능 군비 경쟁은 심화되고 있으며, 경쟁에 직면해 대기업의 '책임'은 점차 약화될 수 있습니다.

구글 경영진도 딥마인드가 지원하는 '인공지능 기술 매칭', '초인간 지능' 등 일반적인 인공지능 개념에 대한 전망을 선택해야 한다.

올해 4월 21일, Pichai는 원래 Jeff Dean이 운영했던 Google Brain과 이전에 인수한 DeepMind의 합병을 발표하고 DeepMind 공동 창립자이자 CEO인 Demis Hassabis에게 Google의 개발을 가속화하기 위해 맡겼습니다. 인공지능 분야.

Hassabis는 몇 년 안에 인공지능 수준이 대부분의 전문가들이 예측하는 것보다 인간 지능 수준에 더 가까워질 수 있다고 믿습니다.

구글은 '전쟁 준비 태세'에 돌입했다

외신이 구글 전·현직 직원 11명을 대상으로 실시한 인터뷰에 따르면 최근 몇 달간 구글은 인공지능 사업에 대한 전면적인 개혁을 단행했다. 실험적인 AI 도구를 소규모 사용자 기반으로 출시하는 데 대한 장벽을 낮추고 공정성과 같은 영역에서 새로운 평가 지표 및 우선순위 세트를 개발합니다.

피차이 형제는 연구 개발 속도를 높이려는 Google의 시도가 모퉁이를 깎는 것을 의미하지 않는다고 강조했습니다.

우리는 일반 인공 지능의 책임 있는 개발을 보장하기 위해 더 유능하고 안전하며 책임감 있는 시스템을 구축하는 것을 목표로 새로운 부서를 설립하고 있습니다.

전 구글 브레인 인공지능 연구원 브라이언 이기훈은 올해 1월 대량 해고의 물결 속에서 해고됐다. 그는 구글이 경쟁이 치열해지면 '평화시'에서 '전시시'로 전환할 것이라고 설명했다. 전시 상황에서는 경쟁사의 시장 점유율 증가도 중요합니다.

Google 대변인 Brian Gabriel은 다음과 같이 말했습니다. 2018년 Google은 내부 관리 구조와 포괄적인 검토 프로세스를 확립했으며 지금까지 다양한 제품 영역에서 수백 건의 검토를 수행했습니다. Google은 AI 기반 기술 전반에 걸쳐 이 프로세스를 계속 적용하고 책임감 있게 개발하는 AI가 회사의 최우선 과제로 유지되도록 할 것입니다.

그러나 인공지능 제품이 언제 출시될지 결정하는 기준의 변화로 인해 직원들 사이에 불안감이 생겼습니다. 예를 들어 Google은 Bard 출시를 결정한 후 실험적인 인공지능 제품에 대한 테스트 점수 기준을 낮추었습니다. 내부 긴장.

2023년 초 Google은 Bard를 중심으로 두 개의 인공 지능 팀(책임 있는 혁신 및 책임 있는 AI)이 정한 약 20가지 정책을 발표했습니다. 직원들은 일반적으로 이러한 규정이 매우 명확하고 완전하다고 믿었습니다.

일부 직원은 이러한 표준이 외부 세계를 위한 성능에 가깝다고 생각합니다. 사용자가 모델의 기능을 더 명확하게 이해할 수 있도록 공개 훈련 데이터나 오픈 소스 모델을 만드는 것이 좋습니다.

논문을 출판하려면 승인이 필요합니다

연구 개발을 가속화하려는 Google의 결정은 직원들에게 엇갈린 축복입니다.

좋은 소식은 비과학적 연구 직위에 있는 직원들은 일반적으로 낙관적이며 이 결정이 Google이 우위를 되찾는 데 도움이 될 수 있다고 믿고 있다는 것입니다.

그러나 연구자의 경우, 관련 인공 지능 연구 결과를 발표하기 전에 추가 승인을 받아야 한다는 것은 연구자가 빠르게 발전하는 생성 인공 지능 분야에서 최초의 기회를 놓치게 된다는 것을 의미할 수 있습니다.

Google의 Ethical AI 팀이 이끌고 Timnit Gebru과 Margaret Mitchell이 ​​공동 집필한 대규모 언어 모델의 위험성에 대한 2020년 연구와 같이 Google이 논란의 여지가 있는 논문을 조용히 억압할 수 있다는 우려도 있습니다.

지난 1년 동안 많은 최고의 인공 지능 연구자들이 스타트업에 의해 납치되었습니다. 그 이유 중 하나는 Google이 과학 연구자들의 결과에 대한 부주의와 과도한 조사 때문이었습니다.

논문 승인을 받으려면 선임 연구원의 엄격한 반복이 필요할 수 있다고 전 Google 연구원이 말했습니다. Google은 해당 분야의 더 광범위한 연구 주제에 계속 참여할 수 있도록 많은 연구자를 투입해 왔으며, 출판 제한으로 인해 다른 연구자 그룹이 떠나게 될 수도 있습니다.

AI R&D를 느리게 해야 할까요?

구글이 개발을 가속화함에 따라, 그다지 조화롭지 않은 목소리도 있습니다. 그들은 주요 인공지능 제조업체들에게 개발 속도를 늦추라고 요구하며, 이 기술의 개발 속도가 기대치를 뛰어넘었다고 믿습니다. 발명자.

딥러닝 분야의 선구자인 제프리 힌튼(Geoffrey Hinton)은 인간의 통제에서 벗어날 수 있는 초지능 AI의 잠재적 위험성에 대한 우려 속에 구글을 떠났습니다.

소비자들은 인공지능의 사실 조작 경향 등 대규모 언어 모델의 위험과 한계를 점차 이해하기 시작했습니다. 그러나 ChatGPT의 작은 글씨 면책 조항에는 그 한계가 명확하게 명시되어 있지 않습니다.

ChatGPT를 기반으로 하는 다운스트림 애플리케이션은 더 많은 문제를 노출했습니다. 예를 들어, 스탠포드 대학의 Percy Liang 교수는 한때 연구를 수행한 결과 New Bing에서 제공한 참고 자료 중 70%만이 정확하다는 사실을 발견했습니다.

5월 4일, 백악관은 Google, OpenAI, Microsoft의 CEO를 초대하여 AI 기술에 대한 대중의 우려와 AI 규제 방법을 논의했습니다.

바이든 미국 대통령은 초청장에서 AI 기업이 제품을 대중에게 공개하기 전에 제품의 안전성을 보장해야 한다는 점을 분명히 했습니다.

위 내용은 구글은 당황하고 있다! 논문을 발표하려면 승인을 받고 제품 개발에 우선순위를 두어야 합니다. ChatGPT가 인공지능 분야의 백조가 될까요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제