>  기사  >  기술 주변기기  >  AI 전문가들은 경고하지만 당면한 문제와 인류 파멸의 위험 중 어느 쪽을 더 걱정할 가치가 있을까?

AI 전문가들은 경고하지만 당면한 문제와 인류 파멸의 위험 중 어느 쪽을 더 걱정할 가치가 있을까?

WBOY
WBOY앞으로
2023-05-04 16:52:071259검색

AI 전문가들은 경고하지만 당면한 문제와 인류 파멸의 위험 중 어느 쪽을 더 걱정할 가치가 있을까?

5월 4일 뉴스에서 오늘날의 인공지능의 기본 기술을 구축한 '빅 녀석들'은 이 기술이 잠재적인 위험을 안고 있다며 경고를 발령했습니다. 그러나 현재 AI의 위험성이나 예방 조치에 대해서는 합의가 이루어지지 않았습니다.

'인공지능의 대부'로 알려진 제프리 힌튼(Geoffrey Hinton)이 최근 구글에서 사임을 발표했습니다. 그는 기계가 인간보다 더 똑똑해져서 인류의 생존이 위태로워질까 봐 자신의 작업 중 일부를 후회합니다.

몬트리올 대학의 요슈아 벤지오(Yoshua Bengio) 교수는 인공지능 분야의 또 다른 선구자입니다. 그는 Hinton 및 Meta의 최고 인공 지능 과학자인 Yann LeCun과 함께 ChatGPT와 같은 오늘날의 인공 지능 애플리케이션 개발에 중요한 인공 신경망의 획기적인 발전으로 2018 Turing Award를 수상했습니다. 수요일에 Bengio는 ChatGPT 및 관련 기술과 같은 챗봇에 대한 Hinton의 우려에 "강력히 동의"하지만 단순히 "우리는 운명에 처해 있다"라고 말하는 것만으로는 문제가 해결되지 않을 것이라고 우려했습니다.

Bengio는 다음과 같이 덧붙였습니다. “가장 큰 차이점은 그(Hinton)가 비관주의자이고 나는 낙관주의자에 가깝다는 것입니다. 단기적이든 장기적이든 이러한 위험은 너무 심각해서 몇 가지 이상의 조치가 필요하다고 생각합니다. 연구자들은 이를 진지하게 받아들이고 있으며 정부와 대중도 이를 진지하게 받아들여야 합니다.”

정부가 모든 당사자의 목소리에 귀를 기울이고 있다는 징후가 많이 있습니다. 백악관은 목요일에 카말라 해리스(Kamala Harris) 미국 부통령과 기술 단기 및 장기 위험을 완화하는 방법에 초점을 맞춘 "솔직한"토론을 위해 Google, Microsoft 및 ChatGPT 제조업체 OpenAI의 CEO를 소환했습니다. 유럽의 국회의원들도 포괄적인 AI 규제 규칙을 통과시키기 위한 협상에 속도를 내고 있습니다.

아직 존재하지 않는 초지능 기계를 지나치게 과대평가하고 그것이 초래할 수 있는 가장 심각한 위험에 대해 환상을 품는 것이 사람들이 감독 기능을 수행하지 않는 현재 인공 지능 제품에 대한 실질적인 보호 장치를 개발하는 데 방해가 될 것이라고 우려하는 사람들도 있습니다.

전 Google AI 윤리 팀장인 Margaret Mitchell은 Hinton이 Google에서 10년 동안 재직하는 동안 특히 2020년에 과학자 Timnit Gebru이 해고된 이후 저명한 흑인들에 대해 발언하지 않은 것에 화가 났다고 말했습니다. Gebru은 ChatGPT 및 Google Bard와 같은 제품으로 널리 상용화되기 전에 대규모 언어 모델의 위험성을 연구했습니다.

Gebru이 떠난 후 Mitchell도 Google을 떠나야 했습니다. 그녀는 “그녀(게브루)가 기술 분야의 소외된 사람들에게 해로운 차별적 의사소통, 혐오 언어, 여성 경시, 합의되지 않은 음란물 모두의 고리에서 벗어난 것은 다행스러운 일이다.

2018년 Turing Award 수상자 3명 중 Bengio는 거대 기술 회사에서 근무하지 않는 유일한 사람입니다. 수년 동안 그는 고용 시장 불안정, 자율 무기의 위험성, 편향된 데이터 세트 등 인공 지능의 단기 위험에 대한 우려를 표명해 왔습니다.

그러나 최근 이러한 우려가 더욱 심각해지면서 Bengio는 Tesla CEO Elon Musk, Apple 공동 창립자 Steve Wozniak 등과 힘을 합쳤습니다. 다른 컴퓨터 과학자 및 기술 비즈니스 리더들은 6개월 간의 개발 유예를 요구했습니다. OpenAI의 최신 모델인 GPT-4보다 더 강력한 인공지능 시스템.

벤지오는 수요일 최신 인공지능 언어 모델이 '튜링 테스트'를 통과했다고 믿고 있다고 밝혔습니다. 영국의 암호해독자이자 AI 선구자인 앨런 튜링(Alan Turing)이 1950년에 개발한 방법의 이름을 딴 튜링 테스트(Turing Test)는 적어도 표면적으로는 인공지능이 인간과 구별할 수 없게 되는 시점을 측정하도록 설계됐다.

Bengio는 다음과 같이 말했습니다. “이것은 획기적인 일이지만, 주의하지 않으면 심각한 결과를 초래할 수 있습니다. 나의 주요 관심사는 이러한 기술이 사이버 공격을 시작하고 허위 정보를 퍼뜨리는 등의 사악한 목적으로 어떻게 악용될 것인가입니다.

연구원들은 현재의 인공지능 언어 시스템이 인간보다 더 똑똑할 수 있는지 논쟁합니다. 이러한 시스템에는 경향, 정보 조작 등과 같은 많은 한계가 있기 때문입니다.

Aidan Gomez는 특히 텍스트 구절에서 학습을 시작할 때 기계 학습 시스템의 성능을 향상하기 위한 소위 변환기 기술을 소개한 중요한 2017년 논문의 공동 저자 중 한 명입니다. 당시 20세였던 고메즈는 구글의 인턴이었습니다. 그는 그의 팀이 신문을 보냈을 때 새벽 3시쯤 회사 캘리포니아 본사 소파에 누워 있던 것을 기억합니다.

Gomez는 동료가 "이것은 엄청난 영향을 미칠 것입니다"라고 말한 것을 기억합니다. 그 이후로 그들의 연구는 인간과 유사한 기사를 생성할 수 있는 새로운 시스템의 출현에 박차를 가하는 데 도움이 되었습니다.

6년 후, 고메즈는 이제 자신이 설립한 인공지능 회사인 Cohere의 CEO가 되었습니다. 그는 이러한 시스템의 잠재적인 응용에 열광했지만 기술에 대한 위협도 걱정했습니다. 그는 이러한 시스템의 진정한 능력은 현실과 동떨어져 있으며 상상력과 추론의 놀라운 힘에 의존한다고 말했습니다.

Gomez는 다음과 같이 말했습니다. "이러한 모델이 어떻게든 핵무기를 장악하고 일종의 멸종 수준의 사건을 일으킬 것이라는 생각은 근거가 없으며 선을 행하려는 진정한 실용적인 정책 노력에 도움이 되지 않습니다."

위 내용은 AI 전문가들은 경고하지만 당면한 문제와 인류 파멸의 위험 중 어느 쪽을 더 걱정할 가치가 있을까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제