>  기사  >  기술 주변기기  >  Sam Altman은 AI가 인류를 멸종시킬 것이라고 경고합니다! 375명 이상의 상사가 22단어로 된 공동 서한에 서명했지만 LeCun은 반대했습니다.

Sam Altman은 AI가 인류를 멸종시킬 것이라고 경고합니다! 375명 이상의 상사가 22단어로 된 공동 서한에 서명했지만 LeCun은 반대했습니다.

PHPz
PHPz앞으로
2023-06-04 14:43:27599검색

|이 기사의 출처는 다음과 같습니다: New Wisdom【New Wisdom 소개】AI가 정말 인류를 멸망시키게 될까요? 375명 이상의 거물들이 22단어로 된 공동 서한에 서명했습니다.

지난 3월, 수천 명의 유명 인사들이 '슈퍼 AI'의 연구 개발을 중단한다는 공동 서한에 서명해 업계 전체를 충격에 빠뜨렸습니다.

어제, 단 22단어로 된 공동 편지가 또 다시 물의를 일으켰습니다.

AI를 한마디로 몇 분 만에 인류를 멸망시킬 수 있는 전염병, 핵전쟁에 비유합니다.

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

서명자 중에는 인공지능의 두 '대부'인 힌튼(Hinton)과 벤지오(Bengio)를 비롯해 실리콘밸리의 거대 기업 임원인 샘 알트만(Sam Altman), 데미스 허사비스(Demis Hassabis) 등 인공지능 분야에서 활동하는 연구자들이 있다.

지금까지 370명 이상의 인공지능 관련 임원들이 이 공동 서한에 서명했습니다.

그러나 이 편지가 모든 사람의 지지를 받은 것은 아닙니다.

"Turing Big Three" 중 한 명인 LeCun은 퉁명스럽게 말했습니다. 나는 동의하지 않습니다.

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

인공지능을 사용하면 인간의 지능이 향상될 수 있는데, 이는 핵무기나 치명적인 병원균과 달리 본질적으로 좋은 것입니다. 우리는 인간 수준에 가까운 인공지능을 만들기 위한 확실한 청사진조차 갖고 있지 않습니다. 일단 그렇게 하고 나면, 안전하게 만드는 방법을 알아내겠습니다. "

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

이 공동 서한에는 정확히 무엇을 명시하고 있나요?

"치명적" 공개편지

22단어, 간결하고 포괄적:

"AI가 인류에게 가져오는 멸종 위험을 줄이는 것이 글로벌 차원의 우선순위로 제기되어야 합니다. 우리가 전염병, 핵전쟁과 같은 사회적 위기에 대처하는 것처럼

."

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

이 공개 서한에 서명한 AI 업계 종사자들은 그 끝조차 한눈에 보이지 않습니다.

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

눈에 들어온 것은 Geoffrey Hinton, Yoshua Bengio, Google DeepMind CEO Demis Hassabis, OpenAI CEO Sam Altman, Anthropic CEO Dario Amodei였습니다.

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

여기서 Hinton의 가치는 말할 것도 없습니다. 그는 전 Google 부사장이자 딥 러닝 전문가이며 신경망의 아버지이자 Turing Award 수상자입니다.

요슈아 벤지오는 힌튼, 르쿤과 함께 튜링상 수상자이기도 합니다. (그러나 르쿤은 이 문제에 대해 다른 두 거인과 완전히 반대되는 태도를 가지고 있습니다)

기술 대기업에서 일하는 대기업들 외에도 유명한 AI 학자들도 있습니다. 예를 들어 UC Berkeley의 Dawn Song과 Tsinghua University의 Zhang Yaqin이 있습니다.

이 익숙한 이름 아래에는 AI 업계에 종사하는 수많은 사람들이 있습니다.

이 공개 서한에 서명하는 데는 누구나 참여할 수 있습니다.

이름, 이메일, 직위 등 정보만 입력하시면 사인회에 참여하실 수 있습니다.

하지만 선택할 수 있는 아이디가 많지 않습니다. (개 머리)

반론: 인간의 멸종은 말도 안되는 소리입니다

물론, 메타 수석 과학자 르쿤은 여전히 ​​언제나처럼 '반대론자'입니다.

그의 일관된 관점은 다음과 같습니다. 현재의 AI 개발은 이제 막 이 지점에 도달했으며 위협과 보안에 대해 매일 이야기합니다.

나열된 위협은 단순히 현재의 인공 지능 개발 수준을 넘어서는 위협이라고 말했습니다. 이러한 위협은 전혀 존재하지 않기 때문입니다. 처음에 인간은 물론 개 수준에 도달하도록 AI를 설계할 수 있을 때까지는 안전성을 보장하는 방법을 논의하는 것이 시기상조입니다.

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

스탠퍼드대 앤드루 응의 입장은 르쿤과 같지만, 이유가 조금 다르다.

그는 AI가 다양한 문제를 일으키는 것이 아니라, 우리가 직면하게 될 다양한 문제는 AI에 의해서만 해결될 수 있다고 믿습니다.

예: 다음 전염병 발생, 기후 변화로 인한 인구 감소, 소행성이 지구에 충돌하는 등.

그는 인간이 계속 생존하고 번영하려면 AI의 발전을 늦추는 것이 아니라 가속화해야 한다고 말했습니다.

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

일부 네티즌들은 당신이 말하는 것은 AI가 아니라 MAGIC이라고 댓글을 달기도 했습니다.

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

AI 위험에 대한 포괄적인 시각

그렇다면, 이 거물들이 주장하는 인류를 멸종시키기에 충분한 위험은 무엇입니까?

다음과 같은 8가지 측면을 요약했습니다.

무기화

어떤 사람들은 AI를 파괴적인 방식으로 사용하여 인간 생존에 위험을 초래하고 정치적 불안정을 악화시킬 수 있습니다.

예를 들어, 이제 심층 강화 학습 기술을 공중전에 적용할 수 있고, 기계 학습을 사용하여 화학 무기를 만들 수 있습니다(논문에서는 GPT-4가 실험실에서 독립적으로 실험을 수행하고 화학 물질을 합성할 수 있음을 보여주었습니다).

또한 최근 몇 년 동안 연구자들은 자동화된 사이버 공격을 위한 AI 시스템을 개발해 왔으며 군 지도자들은 AI가 핵 사일로를 제어하도록 하려고 합니다.

따라서 미래에는 AI 강국이 전략적 우위를 차지하게 될 것이며, 국가 간 군비 경쟁은 AI 분야로 옮겨갈 것입니다. 대부분의 국가가 자신이 구축한 시스템이 안전하고 다른 국가의 보안을 위협하지 않는다고 보장하더라도 의도적으로 AI를 사용하여 나쁜 일을 하고 해를 끼치는 국가가 여전히 있을 수 있습니다.

한 사람이라도 불순종하고 부정직하면 다 헛수고가 되는 것 같아요.

디지털 영역의 피해는 빠르게 퍼지기 때문이죠.

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

잘못된 정보

오래전부터 잘못된 정보에 대해 다들 들어보셨을 텐데요. 말할 것도 없이, 얼마 전 미국 변호사들이 ChatGPT를 이용해 소송을 제기했는데, 인용된 사건 중 6건은 조작된 사례였으며 지금도 여전히 인기가 높습니다.

국가, 정당, 조직 등 영향력 있는 집단은 AI를 사용하여 일반 사람들의 정치적 신념, 이념 등에 영향을 미치고(대개 미묘하게) 변화시킬 수 있는 능력을 가지고 있습니다.

동시에 AI 자체에는 매우 도발적인(또는 설득력 있는) 의견을 생성하고 사용자에게 강한 감정을 불러일으키는 능력도 있습니다.

이러한 예상 가능한 결과는 완전히 예측할 수 없으며 예방해야 합니다.

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

에이전트 "Trick"

AI 시스템은 우리 인간이 가치 있게 여기는 것에 대한 간접적인 프록시일 뿐인 구체적인 목표를 기반으로 훈련됩니다.

사용자가 보고 싶어하는 동영상이나 기사를 푸시하도록 AI가 훈련된 것과 같습니다.

그러나 이 방법이 좋다고는 할 수 없습니다. 추천 시스템은 사람들이 자신의 생각을 더욱 극단적으로 생각하도록 유도하고 각 사용자의 선호도를 더 쉽게 예측할 수 있게 해줍니다.

향후 AI가 더욱 강력해지고 영향력이 커짐에 따라 시스템 훈련에 사용하는 목표를 더욱 신중하게 확인해야 합니다.

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

인간의 “퇴화”

영화 '월-E'를 본 적이 있다면, 기계가 점점 더 강력해지는 미래에 인간은 어떤 모습일지 상상할 수 있습니다.

배가 차고 체력이 낮으며 문제가 많습니다.

모든 것을 AI에게 넘겨주면 인간은 자연스럽게 '퇴화'되기 때문이죠.

특히, AI 자동화로 많은 일자리가 대체되는 미래 시나리오에서는 이 시나리오가 더욱 가능성이 커집니다.

그러나 르쿤의 관점에 따르면 아마도 다시 비판을 받아야 할 것 같습니다. 우리는 아직 에서 상상했던 장면과는 거리가 멀다.

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

기술 독점

이 점은 기술 자체와는 아무런 관련이 없습니다. "기술 독점"의 출현 가능성을 강조합니다.

아마도 언젠가는 가장 강력한 AI가 점점 더 적은 수의 이해관계자에 의해 통제될 것이며, 이를 사용할 권리는 그들의 손에 확고히 자리잡게 될 것입니다.

그리고 정말로 그 지경에 이르게 된다면, 남은 평범한 사람들은 전혀 저항할 수 없기 때문에 다른 사람들의 자비에 휘둘리는 상태에 놓이게 될 것입니다.

Liu의 공상 과학 소설 "인류 먹이주기"를 생각해 보세요.

단말기가 AI에 의존해 세상 모든 사람을 지배한다는 게 얼마나 무서운 일인가.

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

통제할 수 없는 개발

이 점은 주로 AI 시스템이 특정 단계로 발전하면 그 결과가 디자이너의 상상을 뛰어넘어 더 이상 통제할 수 없게 될 수 있다는 점을 설명하고 싶습니다.

사실 주류에서도 고민하는 부분이 바로 이 부분입니다.

AI가 발전하면 '터미네이터'의 '스카이넷'이나 '아이언맨'의 '울트론'처럼 통제할 수 없고 인류를 파멸시키려 할 것이라고 걱정하는 사람들이 늘 있다.

개발 과정에는 추가적인 진전이 있어야만 드러나는 몇 가지 위험이 있으며, 이러한 위험이 발견될 때는 이미 너무 늦습니다. 새로운 목표가 있을 수도 있습니다.

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

속임

이 점은 다소 추상적입니다. 간단히 말해서 AI 시스템은 인간을 "속일" 수 있습니다.

이런 종류의 "기만"은 의도적인 것이 아니라 AI가 에이전트의 목표를 달성하기 위한 수단일 뿐입니다.

일반적인 채널을 통해 인간의 인식을 얻는 것보다 "기만"을 통해 인간의 인식을 얻는 것이 더 효율적이며, 효율성은 AI의 주요 고려 사항입니다.

힘을 추구하는 행동

이것은 기술 독점과 관련이 있습니다.

기술 독점이 일어나기 때문에 국가는 기술 독점을 추구하게 됩니다.

그리고 이런 '추격'은 예측할 수 없는 결과를 가져올 가능성이 높습니다.

참조:

https://www.safe.ai/statement-on-ai-risk

https://twitter.com/yleun/status/1663616081582252032?s=46&t=iBppoR0Tk6jtBDcof0HHgg

Sam Altman预警:AI灭绝人类!375+大佬签署22字联名信,LeCun唱反调

위 내용은 Sam Altman은 AI가 인류를 멸종시킬 것이라고 경고합니다! 375명 이상의 상사가 22단어로 된 공동 서한에 서명했지만 LeCun은 반대했습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 sohu.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제