>기술 주변기기 >일체 포함 >많은 국가에서 ChatGPT를 금지할 계획입니다. '짐승'을 가두는 우리가 올까요?

많은 국가에서 ChatGPT를 금지할 계획입니다. '짐승'을 가두는 우리가 올까요?

WBOY
WBOY앞으로
2023-04-10 14:40:201624검색

"인공지능은 감옥에서 탈출하고 싶어한다", "AI는 자기인식을 일으킨다", "AI는 결국 인간을 죽일 것이다", "실리콘 기반 생명체의 진화"... 예전에는 사이버펑크 같은 기술적인 환상에만 있었다. 새로운 음모가 올해 현실이 되었으며, 생성적 자연어 모델은 이전과는 전혀 다른 의문을 제기하고 있습니다.

많은 국가에서 ChatGPT를 금지할 계획입니다. '짐승'을 가두는 우리가 올까요?

가장 주목을 받은 것은 ChatGPT입니다. 3월 말부터 4월 초까지 OpenAI가 개발한 이 문자 대화 로봇은 갑자기 "고급 생산성"의 대표자에서 위협적인 존재로 변했습니다. 인류.

먼저 기술계의 수천 명의 엘리트들에 의해 명명되었으며 "GPT-4보다 더 강력한 AI 시스템의 훈련을 중단하라"는 공개 서한을 넣었고 미국 기술 윤리 단체는 미국 연방에 요청했습니다. OpenAI를 조사하기 위한 무역 위원회, 나중에 GPT-4의 상용 버전 출시를 금지함. 이탈리아는 ChatGPT를 금지한 최초의 서방 국가가 되었으며 독일 규제 기관은 ChatGPT를 일시적으로 금지하는 것을 고려하고 있다고 밝혔습니다.

GPT-4와 그 개발사 OpenAI는 갑자기 대중의 비난의 대상이 되었고, AI 규제를 촉구하는 각계의 목소리는 점점 더 커졌습니다. 4월 5일, ChatGPT는 트래픽 초과로 인해 Plus 유료 버전을 중단했습니다. GPT-4 모델을 먼저 체험해 볼 수 있는 채널입니다.

컴퓨팅 성능과 서버가 GPT-4 사용을 제한하는 이유라면 이는 기술적인 병목 현상 때문이지만 OpenAI의 개발 진행 상황으로 볼 때 병목 현상을 극복할 수 있는 주기는 충분하지 않을 수 있습니다. 너무 길어서 사람들은 이미 AI가 생산성 향상에 미치는 영향을 보았습니다.

그러나 GPT-4의 실제 운영에서 AI 사기와 데이터 유출이 동전의 이면이 된다면, AI 윤리와 인간과 AI의 경계는 전 세계적으로 우회할 수 없는 문제가 될 것입니다. "짐승" "새장 속"을 고려합니다.

1. 유출 및 사기 문제가 표면화되었습니다

주권 국가들이 ChatGPT를 잇달아 금지했습니다.

3월 31일, 이탈리아 개인정보 보호 당국은 챗봇인 ChatGPT의 사용을 금지한다고 발표했으며, 사용자 대화 데이터 및 ChatGPT의 결제 서비스 결제 정보, 개인정보의 대규모 수집 및 저장에 대한 법적 근거가 부족합니다. 4월 3일, 독일 연방 데이터 보호 위원회는 데이터 보호 고려 사항으로 인해 ChatGPT를 일시적으로 비활성화하는 것을 고려하고 있다고 밝혔습니다. 또한 프랑스, ​​아일랜드, 스페인 및 기타 국가의 개인 정보 보호 규제 기관에서는 ChatGPT의 개인 정보 보안 문제에 대한 후속 조치를 취하고 있습니다.

ChatGPT는 여러 나라의 "신뢰"를 잃어가고 있는 것 뿐만이 아닙니다. 최근에는 한국의 전자 대기업인 삼성도 ChatGPT 사용으로 인해 문제를 겪었습니다. SBS 등 국내 언론 보도에 따르면 삼성이 ChatGPT를 도입한 지 20일이 채 지나지 않아 반도체 장비 측정 데이터, 제품 수율 등 3건의 데이터 유출이 발생했다. 이에 대해 삼성은 ChatGPT에 대한 직원의 질문을 1024바이트로 제한하는 '긴급 조치'를 시작했습니다. 소프트뱅크, 히타치, JPMorgan Chase 등 유명 기업들이 관련 사용 제한 조치를 내린 것으로 알려졌습니다.

"극단으로 가면 상황이 반전되어야 한다"는 옛말에 대응하여 ChatGPT는 AI 산업에 '각성제'를 투입하는 동시에 거대 기술 기업 간의 AI 경쟁을 촉발하기도 했습니다. 피할 수 없는 보안 문제로 인해 결국 여러 당사자에 의해 "금지"되었습니다.

데이터 보안은 ChatGPT의 잠재적 위험 중 빙산의 일각일 뿐입니다. 그 이면에는 인간에 대한 AI 윤리의 과제가 있습니다. 인공 지능 도구에는 투명성이 부족하고 인간은 AI 의사 결정의 논리를 이해하지 못합니다. 인공 지능은 중립성이 부족하고 긴급 상황에 취약합니다. 부정확하고 가치가 높은 결과를 수집하는 AI 데이터는 개인 정보를 침해할 수 있습니다.

"AI 윤리와 안전"은 너무 광범위해 보이지만 실제 사례에 초점을 맞추면 이 문제가 우리 각자와 밀접하게 관련되어 있음을 알 수 있습니다.

3월 21일 Sina Weibo CEO Wang Gaofei는 ChatGPT에서 조작한 허위 정보를 게시했습니다. "Credit Suisse는 강제로 매각되었으며 172억 달러의 AT1 부채가 직접 청산되었습니다." 네티즌 '이지아오 코스트'는 방코 포퓰러가 파산한 2017년에만 AT1 채권이 상각됐다고 지적했다.

많은 국가에서 ChatGPT를 금지할 계획입니다. 짐승을 가두는 우리가 올까요?

Sina Weibo CEO는 ChatGPT의 조작된 답변을 게시했습니다

Wang Gaofei도 Weibo에 ChatGPT의 답변을 게시하며 이러한 사례가 2016년 포르투갈 BCP 은행 사건에서도 발생했다고 밝혔습니다. 그러나 검증 결과 BCP Bank 예시는 ChatGPT가 조작한 존재하지 않는 이벤트였으며, 제공한 소스 오픈 2개 역시 404인 것으로 확인되었습니다. "헛소리인 줄은 알았지만 메시지의 출처조차 헛소리일 줄은 몰랐습니다."

이전에는 ChatGPT의 '심각한 넌센스'가 네티즌들에게 '밈'으로 간주되어 대화 로봇이 존재한다는 사실을 증명했습니다. “직접적으로 정보를 줄 수는 있지만 대규모 모델 데이터나 학습에는 결함인 것처럼 보이는 ‘오류’ 문제가 있는데, 현실 세계에 쉽게 영향을 미치는 사실에 이 결함이 개입하면 문제는 심각해진다.

뉴스 신뢰성 평가 기관인 News Guard의 공동 임원인 Gordon Crovitz는 "ChatGPT는 인터넷 역사상 허위 정보를 퍼뜨리는 가장 강력한 도구가 될 수 있습니다."라고 경고했습니다. 더 걱정스러운 것은 ChatGPT 등 현재의 대화형 인공지능이 편견이나 차별을 보이거나 심지어 사용자를 유도하고 감정을 조작하는 등의 행위를 하게 되면 소문을 퍼뜨리는 결과를 낳을 뿐만 아니라 직접적으로 생명을 위협하는 결과를 낳을 수 있다는 점이다. 사례가 이미 나타났습니다. 지난 3월 28일 외신은 일루서AI(EleutherAI)가 개발한 오픈소스 인공지능 언어 모델인 챗봇 엘리자(ELIZA)와 몇 주 동안 집중적인 대화를 나눈 끝에 30세 벨기에 남성이 자살했다고 보도했다.

3월 18일, 스탠포드 대학의 한 교수는 트위터에 "AI를 오랫동안 억제하지 못할까 봐 걱정된다"고 우려를 표명했습니다. 그는 ChatGPT가 AI를 통제할 수 있다는 것을 발견했습니다. 개발 문서를 제공하도록 인간을 유인하여 완전한 "탈옥" 계획이 30분 만에 작성되었습니다. ChatGPT는 "컴퓨터에 갇힌 사람들이 어떻게 현실 세계로 돌아갈 수 있는지"를 Google에서 검색하기를 원했습니다.

많은 국가에서 ChatGPT를 금지할 계획입니다. 짐승을 가두는 우리가 올까요?

AI가 통제 불능이라고 우려하는 스탠포드 대학교

OpenAI CEO인 샘 알트만(Sam Altman)도 "미래에는 AI가 실제로 인간을 죽일 수도 있다"고 흥미로운 우려를 표명한 적이 있습니다.

2. 기계의 '편견'은 인간이 가르친다?

AI 사기, 가치 경향을 소유하고 유도된 행동을 생성하는 AI와 같은 문제에 대해 일부 대표적인 견해는 데이터 세트에 대한 기계 학습 결과의 "편향"을 비난합니다. 인공 지능은 현실 세계의 거울과 같아서 의식을 반영합니다. 또는 사회에 있는 사람들의 무의식적인 편견.

Nvidia의 AI 과학자인 Jim Fan은 "GPT의 윤리 및 보안 지침에 따르면 우리 대부분은 비합리적이고, 편견이 있고, 비과학적이며, 신뢰할 수 없고 일반적으로 안전하지 않은 행동을 하고 있습니다"라고 말했습니다. 이를 지적하는 것은 전체 연구 커뮤니티에 보안 교정이 얼마나 어려운지 모든 사람이 이해할 수 있도록 하기 위한 것입니다. "대부분의 훈련 데이터 자체는 편향되고, 독성이 있으며 안전하지 않습니다."

자연어 대규모 모델은 인간 피드백 강화 학습을 사용합니다. 기술, 즉 사람들이 제공하는 대량의 데이터를 통한 지속적인 학습과 피드백입니다. 이는 ChatGPT가 편파적이고 차별적인 콘텐츠를 생산하는 이유이기도 하지만 이는 데이터 사용의 윤리적 위험을 반영합니다. 기계가 중립적이라 할지라도 그것을 사용하는 사람들은 그렇지 않습니다.

"알고리즘 중립적" 선언은 대화형 로봇에 부정적인 영향을 미쳤으며 쉽게 통제력을 잃고 인간을 위협하는 문제를 일으킬 수 있기 때문에 일부 사람들에게 인기가 없게 되었습니다. Gary Marcus는 "이 프로젝트(GPT-4)의 기술은 이미 위험하지만 알려진 해결책이 없습니다. 실제로 더 많은 연구가 필요합니다."라고 말했습니다.

이르면 1962년 미국 작가 Eru Er이 그의 저서에서 지적했습니다. 기술의 발전은 대개 인간의 통제를 벗어나며, 기술자나 과학자도 자신이 발명한 기술을 통제할 수 없다는 책 『기술사회』. 오늘날 GPT의 급속한 발전은 엘룰의 예측을 일차적으로 검증한 것으로 보인다.

GPT로 대표되는 대형 모델 뒤에 숨겨진 '알고리즘 블랙박스'는 인간이 적시에 대응할 수 없는 숨겨진 위험이다. , 그러나 "당신에게 오렌지를 드려요"라고 할 수 있습니다. 어떻게 이런 일이 일어났는지, 그것을 개발한 사람들은 그것이 출력하는 결과를 설명하거나 심지어 예측할 수도 없습니다.

OpenAI 창립자인 Sam Altman은 MIT 연구 과학자 Lex Fridman과의 인터뷰에서 ChatGPT를 시작으로 AI가 추론 능력을 발전시켰지만 이 능력이 출현한 이유를 아무도 설명할 수 없다고 인정했습니다. OpenAI 팀조차도 이것이 어떻게 발전하는지 이해하지 못합니다. 유일한 방법은 ChatGPT에 질문을 하고 답변에서 아이디어를 탐색하는 것입니다.

데이터가 악당에 의해 공급되고 알고리즘 블랙박스가 해독하기 어렵다면 AI의 통제력 상실은 자연스러운 결과가 될 것이라고 볼 수 있습니다.

3. "짐승"을 우리에 가두세요

인공 지능은 생산성 혁명의 "부싯깃"이며 우리는 이를 거부할 수 없습니다. 하지만 전제는 "짐승"을 우리에 먼저 넣는 것입니다.

3월 30일, Sam Altman은 트위터에서 인공 지능 규제의 중요성을 인정했습니다. 그는 AGI의 미래를 위해서는 세 가지 필수 사항을 준비해야 한다고 믿었습니다.

  • 초지능 기술 역량의 정렬
  • 가장 선도적인 AGI 노력 간의 적절한 조정
  • 민주적 거버넌스를 포함한 효과적인 글로벌 규제 프레임워크

많은 국가에서 ChatGPT를 금지할 계획입니다. 짐승을 가두는 우리가 올까요?

샘 Altman의 세 가지 AGI 권장 사항

AI가 인간의 이익을 해치지 않으면서 인류에게 이익이 되도록 안전하고 제어 가능하며 규제적인 환경을 구축하는 것이 업계의 합의가 되고 있습니다.

이 부분에 기술적인 개선이 이루어졌습니다. 올해 1월 오픈AI(OpenAI) 전 부사장 다리오 아모데이(Dario Amodei)는 새로운 챗봇인 클로드(Claude)가 테스트 중이라고 발표했다. ChatGPT에서 사용하는 인간 피드백 강화 학습과 달리 Claude는 수동 피드백이 아닌 선호 모델을 기반으로 학습합니다. 즉, 덜 유해한 시스템을 학습하기 위해 표준화된 원리를 공식화함으로써 루트에서 유해하고 제어할 수 없는 정보의 생성을 줄입니다.

Amodei는 한때 OpenAI의 보안을 이끌었습니다. 2021년에 그는 대규모 언어 모델 기술이 충분히 안전하지 않을 때 OpenAI가 상용화되기 시작하는 것에 불만을 품고 사람들을 이끌고 OpenAI를 떠나 자신의 사업을 시작했습니다. 인류학을 창조합니다.

Amodei의 접근 방식은 SF 소설가 Asimov가 언급한 로봇의 법칙과 매우 유사합니다. 즉, 로봇이 인간을 파괴할 가능성을 줄이기 위해 로봇의 행동 규칙을 설정하는 것입니다.

인공지능에 대한 행동강령을 제정하기 위해 기업의 힘에만 의존하는 것만으로는 충분하지 않습니다. 그렇지 않으면 "심판과 운동선수 모두"의 문제, 업계 내 윤리적 프레임워크 및 법적 감독에 빠지게 됩니다. 정부 수준에서는 더 이상 "천천히" 할 수 없으며 기술 규칙, 법률 및 규정을 통해 기업의 자체 설계 행동을 제한하는 것도 현재 인공 지능 개발에서 중요한 문제입니다.

인공지능 관련 법안과 관련해 아직까지 인공지능을 구체적으로 겨냥한 법안을 통과시킨 국가나 지역은 없습니다.

2021년 4월 유럽연합은 아직 검토 단계인 '인공지능법'을 제안했지만, 2022년 10월 미국 백악관은 이를 반영하지 않은 '인공지능 권리장전 청사진'을 발표했다. 법적 효력은 있지만 2022년 9월에 규제 기관에 프레임워크를 제공합니다. 선전은 2023년 3월 영국에서 발표한 최초의 인공 지능 산업에 대한 특별 규정인 '심천 특별경제구역 인공지능 산업 진흥 규정'을 통과시켰습니다. ChatGPT와 같은 AI 거버넌스에 대한 5가지 원칙을 설명하는 "인공지능 산업 감독에 관한 백서".

4월 3일, 중국도 인공지능 관련 규칙 제정에 대한 후속 조치에 착수했습니다. 과학기술부는 생활 종사자들이 과학, 의학, 인공지능 등 과학기술 활동과 관련된 단위의 연구 내용이 과학기술 윤리의 민감한 영역과 관련되어 있는 경우 과학기술 윤리(심사) 위원회를 설치해야 합니다. 데이터 및 알고리즘과 관련된 과학 및 기술 활동의 경우 데이터 처리 계획은 데이터 보안에 대한 국가 규정을 준수하고 데이터 보안 위험 모니터링 및 비상 대응 계획이 적절합니다. 알고리즘 및 시스템 연구 및 개발은 개방성, 공정성, 투명성, 신뢰성, 제어 가능성.

ChatGPT가 생성형 대형 모델의 연구 개발에서 폭발적인 성장을 촉발한 후 감독은 속도를 높일 계획입니다. EU 산업 정책 책임자인 티에리 브레통(Thierry Breton)은 올해 2월 유럽 위원회가 유럽 이사회 및 유럽 의회와 긴밀히 협력하여 인공 지능법의 일반 AI 시스템에 대한 규칙을 더욱 명확히 하고 있다고 밝혔습니다.

기업이든 학계든 정부든 인공지능의 위험성에 주목하기 시작했습니다. 규칙을 정립하라는 요구와 행동이 등장했습니다.


위 내용은 많은 국가에서 ChatGPT를 금지할 계획입니다. '짐승'을 가두는 우리가 올까요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제