>  기사  >  기술 주변기기  >  인공지능이 인류를 멸망시킬 것인가? 전문가들은 허위정보와 사용자 조작이 더 우려된다고 말합니다.

인공지능이 인류를 멸망시킬 것인가? 전문가들은 허위정보와 사용자 조작이 더 우려된다고 말합니다.

王林
王林앞으로
2023-06-04 22:40:011586검색

인공지능이 인류를 멸망시킬 것인가? 전문가들은 허위정보와 사용자 조작이 더 우려된다고 말합니다.

6월 4일 뉴스, 인공지능 기술의 급속한 발전과 대중화로 인해 업계의 많은 사람들은 무제한적인 인공지능이 인류의 멸망으로 이어질 수 있다고 우려하고 있습니다. 하지만 전문가들은 인공지능의 가장 큰 부정적 영향은 공상과학 영화 속 핵전쟁 장면보다는 허위 정보와 사용자 조작으로 인한 사회 환경 악화일 가능성이 높다고 말한다.

다음은 번역입니다.

최근 몇 달간 업계에서는 인공지능에 대한 우려가 점점 커지고 있습니다. 이번 주에만 300명이 넘는 업계 리더들이 인공지능이 인류를 멸종시킬 수 있으며 인공지능을 '전염병과 핵전쟁'만큼 심각하게 다뤄야 한다고 경고하는 공동 공개 서한을 발표했습니다.

'인공지능 대재앙' 같은 용어는 공상과학 영화에서 세계를 지배하는 로봇의 이미지를 떠올리게 하는데, 인공지능이 발전하게 되면 어떤 결과가 나타날까요? 현실은 영화의 줄거리처럼 기복이 크지 않을 수도 있지만, 인공지능이 핵폭탄을 발사하는 것이 아니라 사회 기본 환경이 점차 악화되는 것일 수도 있다고 전문가들은 말한다.

버클리 캘리포니아 대학교 인공지능 안전 이니셔티브 소장 제시카 뉴먼은 "사람들은 AI가 나빠지거나 AI가 악의적인 욕망을 갖는 것에 대해 걱정할 필요가 없다고 생각합니다."라고 말했습니다. 더 간단한 것은 사람들이 AI를 해로운 일을 하도록 프로그래밍할 수도 있고, 본질적으로 부정확한 AI 시스템을 사회의 점점 더 많은 영역에 통합하여 해를 끼칠 수도 있다는 것입니다.”

인공적인 것에 대해 걱정할 필요가 없다는 말은 아닙니다. 지능. 종말 시나리오가 일어날 가능성이 낮더라도 강력한 AI는 잘못된 정보 문제를 악화시키고 인간 사용자를 조작하며 노동 시장에 극적인 변화를 가져오는 형태로 사회를 불안정하게 만들 수 있는 능력을 가지고 있습니다.

AI 기술이 수십 년 동안 존재해 왔지만 ChatGPT와 같은 언어 학습 모델의 인기는 오랜 우려를 더욱 악화시켰습니다. 한편, 기술 기업들은 인공 지능을 자사 제품에 통합하기 위해 안간힘을 쓰고 있으며, 서로 경쟁하며 많은 골칫거리를 만들고 있다고 Newman은 말했습니다.

"저는 지금 우리가 가고 있는 길에 대해 매우 우려하고 있습니다."라고 그녀는 말했습니다. "우리는 인공 지능 분야 전체에 있어서 특히 위험한 시기에 있습니다. 왜냐하면 이러한 시스템은 특별해 보이지만, 여전히 매우 부정확하고 본질적인 취약점이 있습니다.”

인터뷰한 전문가들은 여러 측면에서 가장 우려된다고 말했습니다.

오류와 허위정보

많은 분야에서 이미 소위 인공지능 혁명이 시작되었습니다. 소셜 미디어 뉴스피드 알고리즘을 뒷받침하는 기계 학습 기술은 내재된 편견과 잘못된 정보 등의 문제를 악화시킨다는 비난을 오랫동안 받아왔습니다.

전문가들은 이러한 해결되지 않은 문제는 AI 모델이 개발됨에 따라 더욱 심화될 것이라고 경고합니다. 최악의 시나리오는 진실과 유효한 정보에 대한 사람들의 이해에 영향을 미쳐 거짓말에 기반한 사건이 더 많이 발생할 수 있습니다. 전문가들은 잘못된 정보와 허위정보가 늘어나면 사회 불안이 더 커질 수 있다고 지적한다.

데이터 과학 플랫폼 Anaconda의 CEO이자 공동 창립자인 Peter Wang은 "소셜 미디어 사태는 우리가 정말 멍청한 AI를 처음 접한 것이라고 주장할 수 있습니다. 왜냐하면 추천 시스템은 실제로 단순한 기계 학습 모델이었기 때문입니다."라고 말했습니다. "우리는 정말 비참하게 실패했습니다."

Peter Wang은 이러한 오류로 인해 시스템이 끝없는 악순환에 빠질 수 있다고 덧붙였습니다. 왜냐하면 언어 학습 모델도 잘못된 정보를 기반으로 훈련되어 미래 모델을 위한 또 다른 모델을 만들기 때문입니다. . 결함이 있는 데이터 세트. 이는 미래 모델이 과거 모델의 출력으로 증폭된 편향에 의해 영구적으로 영향을 받는 "모델 식인 풍습" 효과로 이어질 수 있습니다.

사람을 쉽게 오도하는 부정확한 잘못된 정보와 허위정보가 인공지능에 의해 증폭된다고 전문가들은 말합니다. ChatGPT와 같은 대규모 언어 모델은 허위 정보를 반복적으로 조작하고 조작하는 소위 '환각' 현상이 발생하기 쉽습니다. 뉴스 업계 감시 기관인 NewsGuard의 연구에 따르면 자료가 전적으로 인공 지능으로 작성된 수십 개의 온라인 "뉴스" 사이트 중 다수에 부정확한 내용이 포함되어 있는 것으로 나타났습니다.

NewsGuard 공동 CEO인 Gordon Crovitz와 Steven Brill은 이러한 시스템이 악의적인 행위자에 의해 악용되어 의도적으로 잘못된 정보를 대규모로 퍼뜨릴 수 있다고 말했습니다.

크래비츠는 “일부 악의적인 행위자는 허위 진술을 한 뒤 이 시스템의 승수 효과를 이용해 허위 정보를 대규모로 퍼뜨릴 수 있다”며 “인공지능의 위험성이 과장됐다고 말하는 사람도 있지만 뉴스 분야에서는 그렇다”고 말했다. 글로벌 비영리 단체인 AI 파트너십(Partnership on AI)의 레베카 핀레이(Rebecca Finlay)는 “더 큰 규모의 잠재적 피해 측면에서 잘못된 정보가 AI에 미칠 가능성이 가장 크다”고 말했다. 무엇이 진짜인지 이해할 수 있는 생태계를 만들까요?" "온라인에서 보는 것을 어떻게 확인할 수 있나요?"

악의적인 조작. 사용자

대부분의 전문가들은 잘못된 정보가 가장 즉각적이고 일반적인 우려 사항이라고 말하지만 이에 대한 상당한 논쟁이 있습니다. 이 기술이 사용자의 생각이나 행동에 부정적인 영향을 미칠 수 있는 정도.

사실 이러한 걱정은 많은 비극을 불러왔습니다. 벨기에의 한 남성이 챗봇의 권유를 받고 자살한 것으로 알려졌다. 연인과 헤어지자고 하거나, 섭식장애가 있는 사용자에게 체중 감량을 요청하는 챗봇도 있다.

Newman은 챗봇이 대화 형식으로 사용자와 소통하기 때문에 설계상 더 많은 신뢰가 있을 수 있다고 말했습니다.

“대형 언어 모델은 특히 사람들의 신념이나 행동을 미묘하게 바꾸도록 설득하거나 조종하는 데 효과적입니다.”라고 그녀는 말했습니다. "외로움과 정신 건강은 이미 전 세계적으로 큰 문제이고, 챗봇이 세상에 어떤 인지적 영향을 미칠지 지켜봐야 합니다." 그 뒤에 있는 언어 모델은 사람들을 조작하여 다른 방법으로는 겪지 않았을 해를 끼칠 수 있습니다. Newman은 특히 사용자 행동을 조작하여 사용자가 플랫폼에 최대한 오래 머무르도록 하는 광고 수익 창출 모델을 운영하는 언어 모델의 경우에 해당된다고 말했습니다.

Newman은 "많은 경우 사용자가 원하기 때문에 피해를 입는 것이 아니라 시스템이 안전 프로토콜을 따르지 않아 발생하는 결과입니다."라고 덧붙였습니다.

Newman은 챗봇의 인간과 유사한 특성이 사용자는 특히 조작에 취약합니다.

그녀는 “1인칭 대명사를 사용하는 사물과 대화하고 자신의 감정과 상황에 대해 이야기하면 그것이 현실이 아니라는 것을 알면서도 여전히 마치 사람들은 그것을 신뢰하고 싶어할 가능성이 더 높습니다. "언어 모델은 사람들이 그것을 도구가 아닌 친구로 대하도록 만듭니다."

노동 문제

또 다른 오랜 우려는 디지털 자동화가 대체할 것이라는 점입니다. 인간의 일자리가 많다. 일부 연구에서는 AI가 2025년까지 전 세계적으로 8,500만 개의 일자리를 대체하고 앞으로는 3억 개 이상의 일자리를 대체할 것이라고 결론지었습니다.

시나리오 작가, 데이터 과학자 등 인공지능의 영향을 받는 많은 산업과 직위가 있습니다. 오늘날 AI는 실제 변호사처럼 변호사 시험에 합격할 수 있고, 실제 의사보다 건강 관련 질문에 더 잘 답할 수 있습니다.

전문가들은 인공지능의 등장이 대량 실업과 사회 불안을 초래할 수 있다고 경고했습니다.

Peter Wang은 가까운 미래에 대량 해고가 일어날 것이며 "많은 일자리가 위험에 처해" 있으며 그 결과를 처리할 계획이 거의 없다고 경고합니다.

"미국에서는 사람들이 일자리를 잃었을 때 어떻게 생존할 것인지에 대한 틀이 없습니다."라고 그는 말했습니다. "그것은 많은 혼란과 불안으로 이어질 것입니다. 나에게는 그것이 가장 구체적입니다.

다음은 무엇입니까

기술 산업과 소셜 미디어의 부정적인 영향에 대한 우려가 커지고 있음에도 불구하고 미국에서는 기술 산업과 소셜 미디어 플랫폼을 규제하는 조치가 거의 없습니다. 전문가들은 인공지능도 마찬가지라고 우려한다.

Peter Wang은 "우리 중 많은 사람이 인공 지능의 발전을 걱정하는 이유 중 하나는 지난 40년 동안 미국 사회가 기본적으로 기술 규제를 포기했다는 것입니다."라고 말했습니다. 최근 몇 년 동안 미국 의회는 OpenAI CEO인 Sam Altman이 구현해야 할 규제 조치에 대해 증언하기 위해 청문회를 개최하는 등 지난 몇 달 동안 몇 가지 적극적인 조치를 취했습니다. Finley는 이러한 움직임에 "장려"했지만 인공 지능에 대한 기술 사양 개발 및 출시 방법에 대해서는 더 많은 작업이 필요하다고 말했습니다.

“입법부와 규제 당국이 어떻게 대응할지 예측하기 어렵습니다. 엄격한 조사를 받으려면 이 정도 수준의 기술이 필요합니다.”

인공지능의 위험성은 업계 대부분의 사람들의 최대 관심사이지만, 모든 전문가가 '비망론자'인 것은 아닙니다. 많은 사람들은 또한 이 기술의 잠재적인 응용에 대해 기대하고 있습니다.

Peter Wang은 "사실 새로운 세대의 인공지능 기술은 인류의 엄청난 잠재력을 발휘하여 지난 100년, 심지어 200년보다 더 큰 규모로 인류 사회를 번영시킬 수 있다고 생각합니다."라고 말했습니다. 실제로 그것이 가져올 긍정적인 영향에 대해 매우 낙관하고 있습니다."

위 내용은 인공지능이 인류를 멸망시킬 것인가? 전문가들은 허위정보와 사용자 조작이 더 우려된다고 말합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제