>  기사  >  기술 주변기기  >  인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

WBOY
WBOY앞으로
2023-06-09 20:21:541164검색

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

오픈AI, 구글 딥마인드 대표 등 전문가들은 인공지능이 인류를 멸종시킬 수도 있다고 경고하는데, 기계가 어떻게 인간을 대체할 수 있을까?

ChatGPT는 2022년 11월 출시 이후 인공 지능을 사용하여 질문에 답하거나 사용자 요구에 따라 텍스트 또는 코드를 생성하는 챗봇으로 역사상 가장 빠르게 성장하는 인터넷 애플리케이션이 되었습니다.

단 두 달 만에 활성 사용자 1억 명을 달성했습니다. 기술 모니터링 회사인 센서 타운(Sensor Town)에 따르면 인스타그램이 이 목표에 도달하는 데는 무려 2년 반이 걸렸습니다.

Microsoft의 자금 지원을 받아 OpenAI가 개발한 ChatGPT는 큰 인기를 얻으며 인공지능이 인류의 미래에 미칠 영향에 대한 뜨거운 추측을 불러일으켰습니다.

수십명의 전문가들은 AI 안전센터 페이지에 게시된 성명을 지지하면서 "AI로 인한 멸종 위험을 완화하는 것은 전염병, 핵전쟁 등 다른 사회 규모의 위험과 함께 세계적인 우선순위가 되어야 한다"고 말했습니다.

그러나 어떤 사람들은 이러한 우려가 과장됐다고 말합니다.

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

인간 흉내내기

ChatGPT, DALL-E, Bard, AlphaCode 등 인공지능이 생성한 텍스트(산문, 시, 농담부터 컴퓨터 코드까지)와 이미지(다이어그램, 사진, 삽화 등)는 거의 동일하며 구별이 불가능합니다. 인간 자신의 일로부터.

학생들은 숙제를 작성하는 데 사용하고, 정치인은 연설문을 작성하는 데 사용합니다. 민주당 의원 Jack Auchincloss는 미국 의회에서 자원을 시작했습니다.

기술 대기업 IBM은 인공 지능으로 처리할 수 있는 7,800개의 직위 채용을 중단할 것이라고 밝혔습니다.

이러한 모든 변화가 부담스럽다면 다음을 준비하세요.

우리는 인공지능의 첫 번째 단계에 불과하며, 앞으로 두 단계가 더 진행될 예정입니다. 일부 과학자들은 이 단계가 인류의 생존을 위협할 수 있다고 우려합니다.

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

다음은 3단계입니다.

1. 인공 협소지능

제한된 도메인 AI라고도 알려진 약한 AI는 단일 작업에 집중하고 다양한 기능에 걸쳐 반복적인 작업을 수행합니다.

일반적으로 인터넷과 같은 대량의 데이터를 통해 학습하지만, 학습하도록 프로그래밍된 특정 도메인에서만 학습합니다.

예를 들어 세계 챔피언을 이길 수 있지만 다른 작업을 수행할 수 없는 체스 프로그램이 있습니다.

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

스마트폰에는 GPS 지도부터 사용자의 취향을 이해하고 추천해 주는 음악 및 비디오 프로그램까지 이 기술을 사용하는 앱이 가득합니다.

자율주행차, ChatGPT 등 훨씬 더 복잡한 시스템도 여전히 약한 인공지능 범주에 속합니다. 그들은 할당된 역할의 범위를 벗어나서 작업할 수 없으므로 스스로 결정을 내릴 수 없습니다.

그러나 일부 전문가들은 ChatGPT 또는 AutoGPT와 같은 자동 학습 기능으로 프로그래밍된 시스템이 다음 개발 단계에 들어갈 수 있다고 믿습니다.

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

2. 인공일반지능

기계가 인간이 할 수 있는 모든 지적 작업을 완료할 수 있게 되면 일반 인공지능이 도래하게 될 것입니다.

"강력한 인공지능"이라고도 합니다.

6개월 정지

2023년 3월, 1,000명이 넘는 기술 전문가들이 "모든 인공지능 연구소에 GPT-4보다 더 강력한 인공지능 시스템의 훈련을 최소 6개월 동안 즉각 중단하라"고 촉구한 바 있습니다. GPT-4는 ChatGPT의 최신 버전입니다.

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

애플의 공동 창업자인 스티브 워즈니악을 비롯해 테슬라, 스페이스X의 사장 엘론 머스크 등 다른 기술 대기업들은 "인간과 경쟁하는 지능을 갖춘 인공지능 시스템은 사회와 인류에 심각한 위험을 초래한다"고 썼다. -OpenAI의 창립자이며 나중에 회사 경영진과의 불일치로 인해 이사회에서 사임했습니다.

비영리 단체인 Future of Life Institute에서 발행한 서한에서 전문가들은 기업이 프로젝트를 신속하게 중단하지 않을 경우 "정부가 개입하여 유예 조치를 취하여" 안전 조치를 설계하고 시행해야 한다고 말합니다.

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

"똑똑하고 멍청하다"

이 편지는 옥스포드 대학교 인공 지능 윤리 연구소의 Carissa Veliz가 서명했습니다. 그녀는 인공지능안전센터가 결국 발표한 경고문이 너무 극단적이라고 믿었기 때문에 서명을 거부했습니다.

"우리가 현재 개발 중인 AI는 똑똑하면서도 멍청합니다."라고 Andrew Webb에게 말했습니다. "ChatGPT나 다른 AI를 사용해 본 사람이라면 매우 심각한 한계가 있다는 것을 알게 될 것입니다."

Veliz는 인공지능이 극도로 높은 비율로 잘못된 정보를 생성할 것이라고 우려하고 있습니다.

2024년 미국 대통령 선거가 다가옴에 따라 트위터와 기타 주요 플랫폼과 같은 중요한 플랫폼이 AI 윤리 및 안전 팀을 해고했다는 사실이 점점 더 우려되고 있습니다. ”

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

미국 정부는 잠재적 위협을 인정합니다. 백악관은 5월 4일 성명을 통해 "인공지능은 우리 시대의 가장 강력한 기술 중 하나이지만 그것이 가져오는 기회를 포착하려면 먼저 위험을 줄여야 한다"고 말했습니다.

미국 의회는 ChatGPT에 대한 질문에 답변하기 위해 OpenAI CEO인 Sam Altman을 소환했습니다.

상원 청문회에서 Altman은 인공 지능이 발전함에 따라 자신의 산업에 대한 정부 규제가 "매우 중요"하다고 말했습니다.

생명의 미래 연구소의 공공 정책 연구원인 구티에레즈는 기자들에게 인공 지능이 제기하는 가장 큰 과제 중 하나는 "기후에 관한 정부 간 패널처럼 이를 규제하는 방법을 결정하는 전문가들로 구성된 공동 기구가 없다는 것"이라고 설명했습니다. 바꿔라" 위원회는 그런 식으로요."

이것은 인공 지능의 세 번째이자 마지막 단계로 이어집니다.

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

3. 초인공지능

이 이론에서는 두 번째 단계에 도달하면 곧 마지막 단계인 '초인공지능'에 진입하게 된다는 이론입니다. 인공지능이 인간지능을 뛰어넘으면 이런 일이 벌어진다.

옥스퍼드 대학의 철학자이자 인공지능 전문가인 보스트롬은 초지능을 “과학적 창의성, 일반 지능, 사회적 기술을 포함한 거의 모든 분야에서 인간의 두뇌를 훨씬 능가하는 지능”으로 정의합니다.

“인간은 엔지니어, 간호사, 변호사가 되려면 오랫동안 배워야 합니다. 일반 인공지능의 어려움은 우리가 할 수 없는 상황에서도 지속적으로 스스로를 향상시키는 능력입니다.”라고 구티에레즈는 설명했습니다. ”.

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

공상과학

이 컨셉은 기계가 인류를 파괴하는 핵전쟁을 시작하는 영화 "터미네이터"의 줄거리를 연상시킵니다.

프린스턴 대학의 컴퓨터 과학자 Narayanan은 이전에 기자들에게 SF 재난 시나리오가 비현실적이라고 말했습니다. "현재의 인공 지능은 이러한 위험을 현실화하기에는 충분하지 않습니다. 결국 인공 지능으로 인해 사람들의 관심이 분산되고 단기적인 피해를 입게 됩니다."

기계가 실제로 인간이 소유한 광범위한 지능, 특히 감성 지능 측면을 달성할 수 있는지에 대해 많은 논쟁이 있지만, 이는 우리가 일반적인 인공 지능을 달성하기 직전이라고 생각하는 사람들이 가장 두려워하는 것 중 하나입니다. 지능.

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유최근 "인공지능의 대부"인 제프리 힌튼(Jeffrey Hinton)은 우리가 이 이정표에 가까워지고 있을지도 모른다고 경고했습니다. Hinton은 경험을 통해 배울 수 있는 기계를 가르치는 선구자입니다.

“지금은 [기계]가 우리보다 더 똑똑하다고 생각하지 않습니다. 그가 은퇴했고 75세라는 점을 고려하면 아마 곧 도착할 것 같아요.

뉴욕타임스에 보낸 성명에서 힌튼은 "나쁜 행위자"가 "나쁜 일"을 하기 위해 인공지능을 사용할까 두렵기 때문에 이제 자신이 한 일을 후회한다고 말했습니다.

그는 이러한 기계가 결국 "'더 많은 전력이 필요해'와 같은 하위 목표를 생성"하게 되어 "실존적 위험"을 초래할 수 있다고 경고했습니다.

힌튼은 인공지능이 위험할 수 있다는 점을 인정하지만 단기적으로는 그 이점이 위험보다 더 크다고 생각하므로 이 기술 개발을 중단해서는 안 된다고 믿습니다. "라고 말하더군요.

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

멸종 또는 불멸

영국 물리학자 스티븐 호킹은 엄중한 경고를 내렸습니다.

그는 죽기 4년 전인 2014년 기자들에게 “인공지능의 완전한 발전은 인류의 종말을 의미할 수 있다”고 말했다.

이러한 수준의 지능을 갖춘 기계는 "스스로 진화하고 점점 더 빠른 속도로 스스로를 재설계할 것"이라고 그는 말했습니다.

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

나노 로봇과 불멸

미래의 발명가이자 작가인 커즈와일(Kurzweil)은 인공 지능의 가장 큰 열성팬 중 한 명입니다. 그는 Google의 인공 지능 연구원이자 실리콘 밸리에 있는 Singularity University의 공동 창립자입니다.

Kurzweil은 인간이 초지능 인공지능을 사용하여 생물학적 장애물을 극복할 수 있을 것이라고 믿습니다.

2015년 그는 2030년에는 인간의 몸 내부에서 작동하여 손상이나 질병을 복구하고 치료할 수 있는 나노봇(아주 작은 로봇)으로 인해 인간이 불멸을 달성할 것이라고 예측했습니다.

인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유

인공지능 관리

Gutierrez는 AI 거버넌스 시스템을 만드는 것이 핵심이라는 데 동의합니다.

“인터넷 검색으로 인해 지구상의 모든 사람과 그들의 습관에 대해 너무 많은 정보를 갖고 있는 독립체가 우리가 알지 못하는 방식으로 우리를 통제할 수 있는 미래를 상상해 보세요.”라고 그는 말했습니다.

"최악의 시나리오는 인간과 로봇 사이의 전쟁이 아닙니다. 우리는 이 행성을 우리보다 더 똑똑한 존재와 공유하고 있지만 안타깝게도 우리가 조종당하고 있다는 사실을 깨닫지 못합니다."

위 내용은 인공지능의 3단계: 과학자들이 인류 멸종으로 이어질 수 있는 AI 기술을 제한하기 위해 힘을 합치는 이유의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 sohu.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제