수년에 걸쳐 Google 및 Facebook과 같은 거대 기술 기업은 인공 지능(AI) 연구 및 개발에 수십억 달러를 투자하여 그 잠재력을 과장했습니다. 그러나 이제 연구자들은 AI에 대한 기대치를 재설정할 때라고 말합니다.
최근 AI 기술 발전이 어느 정도 비약한 것은 사실입니다. 기업들은 인간처럼 보이는 대화, 시, 이미지를 생성할 수 있는 AI 시스템을 더 많이 개발했습니다. 그러나 AI 윤리학자와 연구자들은 일부 기업이 AI의 능력을 과장하고 있으며, 이러한 과대광고가 광범위한 오해를 낳고 AI의 힘과 신뢰성에 대한 정책 입안자들의 견해를 왜곡하고 있다고 경고합니다.
“우리는 균형을 잃었습니다.” 시애틀의 비영리 연구 기관인 Allen Institute for Artificial Intelligence의 CEO인 Oren Etzioni가 말했습니다. Etzioni와 다른 연구자들은 이러한 불균형이 AI가 지각이 있다는 Google 엔지니어들의 주장이 왜 그렇게 많은 사람들을 동요시키는지 설명하는 데 도움이 된다고 지적합니다.
Google 엔지니어 Blake Lemoine은 회사의 AI 시스템 중 하나가 자신의 종교적 신념에 따라 지각 있는 시스템으로 간주되어야 한다고 제안했습니다. 그는 AI 챗봇이 사실상 사람이 되어 실험 허용 여부를 결정할 권리가 있다고 주장했다. 이후 Google은 그를 정지시키고 그의 주장을 기각했습니다. 구글은 기업 윤리학자와 기술 전문가들이 그 가능성을 연구한 뒤 그의 주장을 기각했다고 말했다.
AI가 지각이 있다고 주장하는 Lemoyne
AI가 의식을 갖게 되거나 의식을 가질 수 있다는 생각은 더 넓은 과학계에서 여전히 비주류로 남아 있다고 연구원들은 말합니다.
실용적인 관점에서 AI가 다루는 일련의 기술은 사용자에게 광고와 콘텐츠를 더 잘 전달하기 위해 사용자의 데이터를 처리하는 등 일련의 일상적인 백엔드 물류 작업에 여전히 큰 도움이 됩니다. .제품 추천을 해보세요.
지난 10년 동안 Google, Facebook의 모회사인 Meta, Amazon 등의 기업은 성장과 수익 엔진을 추진하기 위해 이러한 역량을 강화하는 데 막대한 투자를 해왔습니다. 예를 들어 Google은 AI를 사용하여 복잡한 검색 프롬프트를 더 효과적으로 구문 분석하여 관련 광고와 웹 결과를 제공하도록 돕습니다.
일부 스타트업은 훨씬 더 큰 야망을 갖고 있습니다. Tesla CEO Elon Musk 및 Microsoft Corp.를 비롯한 기부자와 투자자로부터 수십억 달러를 모금한 회사 중 하나인 OpenAI는 인간의 모든 차원과 일치하거나 이를 능가하는 시스템 능력인 소위 일반 AI를 달성하는 것을 목표로 합니다. 지능. 일부 연구자들은 이것이 불가능하지는 않더라도 수십 년이 걸릴 것이라고 믿습니다.
서로를 능가하기 위한 두 회사 간의 경쟁은 AI의 급속한 발전을 이끌고 점점 더 설득력 있는 시연을 낳고 있습니다. 이러한 시연은 대중의 상상력을 사로잡았고 기술에 대한 관심을 끌었습니다.
OpenAI의 DALL-E 시스템은 "토성 궤도에 있는 맥도날드" 또는 "철인 3종 경기에 참가하는 스포츠 장비를 착용한 곰"과 같은 사용자 프롬프트를 기반으로 예술 작품을 생성할 수 있습니다. 이는 최근 몇 주 동안 소셜 미디어에서 많은 밈에 영감을 주었습니다. 그 후 Google은 DALL-E 시스템의 예를 따라 자체 텍스트 기반 아트워크 생성 시스템을 출시했습니다.
이러한 결과는 인상적이지만, 점점 더 많은 전문가들이 기업이 홍보를 제대로 통제하지 못하고 있다고 경고하고 있습니다.
Google의 윤리적 AI 팀을 공동 이끌었던 Margaret Mitchell은 Google 시스템에 대한 비판적인 논문을 작성한 후 해고되었습니다. 그녀는 Google이 주주들에게 판매하는 장점 중 하나가 AI 분야에서 세계 최고라는 점이라고 말했습니다.
Mitchell은 현재 Hugging Face라는 AI 스타트업에서 일하고 있습니다. 그녀와 Google의 또 다른 AI 윤리 공동 리더인 Timnit Gebru은 AI의 위험성을 처음으로 경고한 사람들 중 한 명입니다. . Gebru도 Google에서 해고되었습니다.
그들이 Google에서 일하면서 쓴 마지막 논문에 따르면, 그들은 이러한 기술이 인간과 같은 능력을 가지고 있기 때문에 인간만큼 실패할 가능성이 있기 때문에 때로는 해를 끼칠 수 있다고 주장합니다. 예를 들어 페이스북의 AI 시스템은 아랍어 '좋은 아침'을 영어로 번역하면 '상처를 주다'로, 히브리어로 번역하면 '공격하라'로 잘못 번역해 이스라엘 경찰에 체포됐다. 실수.
지난해 공개된 페이스북 내부 문서에서도 페이스북의 AI 시스템이 1인칭 촬영 영상과 인종차별적 발언을 항상 식별하지 못하고 회사 규정을 위반한 콘텐츠 중 극히 일부만 삭제한 것으로 드러났다. 페이스북은 AI 기술의 발전으로 증오심 표현과 페이스북 규정을 위반하는 기타 콘텐츠가 크게 줄었다고 밝혔습니다.
이상은 꽉 차고, 현실은 빈약해요. Etzioni와 다른 사람들은 Watson을 중심으로 한 IBM의 마케팅을 지적했습니다. 왓슨(Watson)은 퀴즈쇼 '제퍼디!(Jeopardy!)'에서 인간을 때리는 것으로 유명해진 IBM이 개발한 AI 시스템이다. 그러나 10년 동안 수십억 달러를 투자한 IBM은 작년에 의사들이 암을 진단하고 치료하는 데 도움을 주는 주요 제품인 Watson Health 사업부의 판매 가능성을 모색하고 있다고 밝혔습니다.
AI는 이제 어디에나 있고 더 많은 회사가 참여하기 때문에 그들이 개발하는 소프트웨어에는 이메일, 검색 엔진, 뉴스 피드 및 음성 도우미가 포함되며 우리의 디지털 생활에 침투했기 때문에 위험이 더욱 커졌습니다.
AI가 지각이 있다는 주장을 일축하면서 구글 대변인 브라이언 가브리엘은 회사의 챗봇과 기타 대화 도구가 "모든 비현실적인 주제에 대해 즉흥적으로 대처할 수 있다"고 말했습니다. "아이스크림 공룡에게 그것이 어떻게 생겼는지 묻는다면 녹거나 으르렁거리는 것과 같은 것에 대한 텍스트를 생성할 수 있는데, 이는 지각과는 다릅니다."라고 그는 말합니다.
브라운 대학교에서 AI 정책을 연구하는 컴퓨터 과학 박사 과정 학생인 엘리자베스 쿠마르(Elizabeth Kumar)는 이러한 인지 격차가 정책 문서에 조용히 스며들었다고 말했습니다.
최근 지역, 연방, 국제 규정 및 규제 제안에서는 AI 시스템의 능력이 매우 뛰어나다는 가정을 바탕으로 AI 시스템이 차별, 조작 또는 기타 방식을 통해 피해를 일으킬 수 있는 가능성을 다루려고 시도했습니다. Kumar는 AI 시스템이 "단순히 작동하지 않아" 피해를 입힐 가능성을 대부분 무시했으며 그럴 가능성이 더 높다고 말했습니다.
Etzioni는 Biden 행정부의 국가 인공 지능 연구 자원 태스크 포스 회원이기도합니다. 그는 정책 입안자들이 이러한 문제를 파악하는 데 종종 어려움을 겪는다고 지적했습니다. “그들 중 일부와의 대화를 통해 그들이 좋은 의도를 갖고 좋은 질문을 하지만 모든 것을 다 아는 것은 아니라는 점을 알 수 있습니다.”라고 그는 말했습니다.
위 내용은 거대 기술기업이 수백억 달러에 달하는 AI 연구개발에 대해 의문을 품고 자랑했다. 한때 인간을 이긴 AI는 팔릴 것이다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!