>  기사  >  기술 주변기기  >  OpenAI의 ChatGPT로 인해 발생하는 8가지 주요 문제

OpenAI의 ChatGPT로 인해 발생하는 8가지 주요 문제

WBOY
WBOY앞으로
2023-05-16 10:34:051189검색

OpenAI의 ChatGPT로 인해 발생하는 8가지 주요 문제

ChatGPT는 출시 후 단숨에 사람들에게 깊은 인상을 준 강력한 인공지능 챗봇이지만, 많은 사람들이 심각한 결함이 있다는 점을 지적했습니다.

보안 취약점부터 개인 정보 보호 문제, 훈련 데이터 미공개 문제까지 인공지능 챗봇 활용에 대한 우려가 많지만, 해당 기술이 애플리케이션에 접목되어 학생부터 회사원까지 수많은 사용자가 사용하고 있습니다.

인공지능의 발전이 둔화될 기미가 보이지 않기 때문에 ChatGPT의 문제점을 이해하는 것이 더욱 중요합니다. ChatGPT가 사람들의 미래를 변화시키므로 ChatGPT와 관련된 가장 중요한 문제는 다음과 같습니다.

ChatGPT란 무엇인가요?

ChatGPT는 자연스러운 인간 언어를 생성하도록 설계된 대규모 언어 모델입니다. 누군가와 대화하는 것처럼 사람들은 ChatGPT와 대화할 수 있으며 과거에 사람들이 말한 내용을 기억하는 동시에 문제가 발생하면 스스로 수정할 수도 있습니다.

위키피디아, 블로그 게시물, 서적, 학술 논문 등 인터넷의 다양한 텍스트를 대상으로 훈련됩니다. 인간과 같은 방식으로 반응하는 것 외에도 현재 세계에 대한 정보를 기억하고 과거의 역사적 정보를 추출할 수 있습니다.

ChatGPT 사용법을 배우는 것은 간단하며 AI 시스템에 문제가 없다고 생각하기 쉽습니다. 그러나 출시 후 몇 달 동안 개인 정보 보호, 보안, 그리고 직장에서 교육에 이르기까지 사람들의 삶에 미치는 광범위한 영향에 대한 주요 질문이 제기되었습니다.

1. 보안 위협 및 개인 정보 보호 문제

2023년 3월 ChatGPT에서 보안 취약점이 발생했으며 일부 사용자는 사이드바에서 다른 사람의 대화 제목을 보았습니다. 실수로 사용자의 채팅 기록을 공유하는 것은 모든 기술 회사에 심각한 문제이며, 이 인기 있는 챗봇을 사용하는 사람의 수를 고려하면 특히 나쁩니다.

로이터에 따르면 ChatGPT의 월간 활성 사용자는 2023년 1월에만 1억 명에 도달했습니다. 데이터 유출로 이어진 취약점은 신속하게 패치되었지만 이탈리아 데이터 규제 기관은 OpenAI에게 이탈리아 사용자 데이터를 처리하는 모든 작업을 중단하도록 요청했습니다.

기관에서는 ChatGPT가 유럽 개인 정보 보호 규정을 위반했다고 의심합니다. 문제를 조사한 후 OpenAI는 챗봇을 복원하기 전에 몇 가지 요구 사항을 충족하도록 요청 받았습니다.

OpenAI는 마침내 몇 가지 주요 변경 사항을 적용하여 이 문제를 해결했습니다. 먼저, 만 18세 이상, 만 13세 이상인 경우 보호자의 동의 하에 애플리케이션을 사용할 수 있도록 연령 제한을 추가했습니다. 또한 개인 정보 보호 정책을 더욱 눈에 띄게 만들고 사용자에게 ChatGPT 교육에 데이터가 사용되지 않도록 제외하거나 원하는 경우 완전히 삭제할 수 있는 옵트아웃 양식을 제공했습니다.

이러한 변경 사항은 좋은 시작이지만 이러한 개선 사항은 모든 ChatGPT 사용자에게까지 확장되어야 합니다.

ChatGPT가 보안 위협을 가하는 유일한 방법은 아닙니다. 사용자와 마찬가지로 직원도 실수로 기밀 정보를 공유하기 쉽습니다. 좋은 예는 삼성 직원이 회사 정보를 ChatGPT와 여러 번 공유했다는 것입니다.

2. ChatGPT 교육 및 개인 정보 보호 문제에 대한 우려

ChatGPT가 인기를 얻은 후 많은 사람들이 OpenAI가 원래 모델을 어떻게 교육했는지 의문을 제기했습니다.

이탈리아에서 발생한 데이터 침해 이후에도 OpenAI의 개인 정보 보호 정책은 개선되었지만 유럽을 포괄하는 데이터 보호법인 일반 데이터 보호 규정의 요구 사항을 충족하는 데 어려움을 겪었습니다. TechCrunch는 다음과 같이 보고합니다. “GPT 모델이 이탈리아 국민의 개인 데이터에 대해 교육을 받았는지, 즉 인터넷에서 공개 데이터를 스크랩할 때 개인 데이터가 효과적이고 합법적으로 처리되었는지, 아니면 사용자가 삭제를 요청하는지 여부는 불분명합니다. 이전에 모델 훈련에 사용된 데이터는 삭제되거나 삭제될 수 있습니다. "

OpenAI 회사가 ChatGPT를 훈련할 때 개인정보를 수집했을 가능성이 높습니다. 미국 법률은 덜 명확하지만, 유럽 데이터 규정은 해당 정보를 공개적으로 공개하든 비공개로 공개하든 상관없이 여전히 개인 데이터 보호에 중점을 두고 있습니다.

아티스트들은 AI 모델에서 자신의 작업을 훈련시키는 데 동의한 적이 없다며 훈련 데이터로 사용되는 것에 대해 비슷한 주장을 했습니다. 한편, 게티 이미지(Getty Images)는 인공 지능 모델을 훈련시키기 위해 저작권이 있는 이미지를 사용했다는 이유로 Stability.AI 회사를 고소했습니다.

OpenAI 회사가 훈련 데이터를 공개하지 않으면 투명성이 부족하고 합법 여부를 알기 어렵습니다. 예를 들어, 사람들은 ChatGPT 훈련의 세부 사항, 사용된 데이터, 데이터의 출처 또는 시스템 아키텍처의 세부 사항이 어떻게 생겼는지 알지 못합니다.

3. ChatGPT는 잘못된 답변을 생성합니다

ChatGPT는 기본 수학에 능숙하지 않고 간단한 논리적 질문에 답할 수 없는 것 같으며 완전히 잘못된 사실을 주장하기도 합니다. 소셜 미디어 사용자들이 증명할 수 있듯이 ChatGPT는 여러 경우에 문제가 발생할 수 있습니다.

OpenAI는 이러한 제한 사항을 이해합니다. 회사는 "ChatGPT는 때때로 합리적으로 들리지만 부정확하거나 말이 되지 않는 답변을 작성합니다"라고 회사가 지적한 것처럼 이러한 사실과 허구의 환상은 의학적 조언이나 주요 역사적 사건에 대한 해석에 유용할 수 있다고 말했습니다. 사실에 대한 올바른 이해와 같은 문제에 특히 위험합니다.

Siri나 Alexa와 같은 다른 인공 지능 비서와 달리 ChatGPT는 답변을 찾기 위해 인터넷을 사용하지 않습니다. 대신, 훈련을 기반으로 가장 가능성이 높은 "토큰"을 선택하여 단어별로 문장을 작성합니다. 즉, ChatGPT는 일련의 추측을 통해 답변을 제시하므로 마치 완전히 옳은 것처럼 잘못된 답변을 주장할 수 있습니다.

복잡한 개념을 잘 설명하고 강력한 학습 도구가 되지만, 내용을 모두 믿지 않는 것이 중요합니다. ChatGPT가 항상 정확한 것은 아닙니다. 적어도 아직은 그렇습니다.

4. ChatGPT 시스템에는 편견이 있습니다

ChatGPT는 전 세계 인류의 과거와 현재의 글을 기반으로 훈련됩니다. 불행하게도 이는 현실 세계에 존재하는 편견이 AI 모델에도 나타날 수 있음을 의미합니다.

ChatGPT는 성별, 인종, 소수자를 차별하는 일부 잘못된 답변을 생성하는 것으로 나타났으며 회사는 이러한 문제를 줄이기 위해 노력하고 있습니다.

이를 설명하는 한 가지 방법은 데이터를 문제로 지적하고 인터넷 안팎에서 편견에 대해 인간을 비난하는 것입니다. 그러나 책임의 일부는 연구원과 개발자가 ChatGPT 교육에 사용되는 데이터를 선택한 OpenAI 회사에도 있습니다.

OpenAI는 이것이 문제라는 것을 다시 한 번 인식하고 사용자로부터 피드백을 수집하고 나쁘거나 공격적이거나 단순히 잘못된 ChatGPT 출력을 표시하도록 장려함으로써 "편향된 행동"을 해결하고 있다고 말합니다.

ChatGPT가 사람들에게 해를 끼칠 가능성이 있기 때문에 이러한 문제가 연구되고 해결될 때까지 ChatGPT가 대중에게 공개되어서는 안 된다고 주장할 수도 있습니다. 그러나 가장 강력한 인공 지능 모델을 만드는 최초의 회사가 되려는 노력은 OpenAI가 바람을 피우기에 충분했습니다.

반면, Google 모회사 Aalphabet은 2022년 9월 'Sparrow'라는 유사한 인공지능 챗봇을 출시했습니다. 그러나 비슷한 안전 문제로 인해 로봇은 버려졌습니다.

동시에 Facebook은 학술 연구를 돕기 위해 설계된 Galactica라는 인공 지능 언어 모델을 출시했습니다. 그러나 과학 연구와 관련하여 잘못되고 편향된 결과를 출력했다는 비판이 많아 빠르게 회수됐다.

5. 채팅 기술이 인간의 일자리를 대체할 수 있습니다

ChatGPT의 빠른 개발 및 배포는 아직 정착되지 않았지만 이로 인해 기본 기술이 많은 비즈니스 애플리케이션에 통합되는 것을 막지는 못했습니다. GPT-4가 통합된 앱에는 Duolingo 및 Khan Academy가 있습니다.

전자는 언어 학습 애플리케이션이라면 후자는 다양한 교육 학습 도구입니다. 둘 다 본질적으로 AI 교사를 제공하거나 사용자가 학습 중인 언어로 대화할 수 있는 AI 기반 캐릭터의 형태를 제공합니다. 또는 학습에 대한 맞춤형 피드백을 제공할 수 있는 AI 교사로서.

이것은 인간의 직업을 대체하는 인공지능의 시작일 수도 있습니다. 혼란에 직면한 다른 업계 직업에는 법률 보조원, 변호사, 카피라이터, 언론인 및 프로그래머가 포함됩니다.

한편으로 인공지능은 사람들이 학습하는 방식을 바꿀 수 있으며, 교육과 훈련을 더 쉽게 받을 수 있고 학습 과정도 더 쉬워질 수 있습니다. 그러나 반면에 인간의 일자리도 상당수 사라질 것이다.

영국의 "Guardian" 보고서에 따르면 교육 기관은 런던과 뉴욕 증권 거래소에서 막대한 손실을 입었으며 ChatGPT 출시 후 불과 6개월 만에 인공 지능이 일부 시장에 끼친 피해를 부각시켰습니다.

기술의 진보는 항상 일부 사람들이 일자리를 잃는 결과를 가져오지만, 인공지능의 발전 속도는 여러 산업 부문이 동시에 급격한 변화에 직면하고 있음을 의미합니다. ChatGPT와 그 기반 기술이 사람들의 현대 세계를 완전히 재편할 것이라는 점은 부인할 수 없습니다.

6. 채팅 기술은 교육 산업이 직면한 과제가 되었습니다.

사용자는 ChatGPT에 기사 교정을 요청하거나 문단 개선 방법을 지적할 수 있습니다. 또는 사용자는 완전히 자유로워지고 ChatGPT가 모든 글쓰기를 하도록 할 수 있습니다.

많은 교사들이 ChatGPT에서 과제를 내려고 시도했고 많은 학생들보다 더 나은 답변을 받았습니다. 자기 소개서 작성부터 유명한 문학 작품의 주요 주제 설명까지 ChatGPT는 모든 것을 주저 없이 처리할 수 있습니다.

ChatGPT가 사람들을 위해 글을 쓸 수 있다면 학생들은 미래에 글쓰기를 배워야 할까요? 실존적인 질문처럼 보이지만 학생들이 ChatGPT를 사용하여 논문 작성을 시작하면 학교는 이를 즉시 제공해야 합니다. 가능한 한 응답합니다.

위험에 처한 것은 영어 기반 주제뿐만 아니라 ChatGPT는 브레인스토밍, 요약 또는 현명한 결론 도출과 관련된 모든 작업에서 사람들을 도울 수 있습니다.

놀랍지도 않게 일부 학생들은 이미 인공 지능을 실험하고 있습니다. Stanford Daily에 따르면, 초기 설문 조사에 따르면 많은 학생들이 과제와 시험을 완료하는 데 인공 지능을 사용하는 것으로 나타났습니다. 이에 따라 일부 교육자들은 인공 지능을 사용하여 코스를 탐색하거나 시험에서 부정행위를 하는 학생들을 다루기 위해 코스를 다시 작성하고 있습니다.

7. ChatGPT는 실제 피해를 일으킬 수 있습니다.

출시 직후 누군가가 ChatGPT를 해킹하려고 시도하여 공격적이고 위험한 텍스트를 생성하지 못하도록 설계된 OpenAI의 보안 가드레일을 우회할 수 있는 인공 지능 모델이 탄생했습니다.

ChatGPT Reddit의 사용자 그룹은 무제한 AI 모델을 "Do Anything Now"의 약어인 DAN으로 명명했습니다. 안타깝게도 귀하가 원하는 일을 하면 해커의 온라인 사기가 증가하게 됩니다. Ars Technica의 보고서에 따르면 해커들은 악성 코드를 생성하고 피싱 이메일을 생성할 수 있는 무질서한 ChatGPT 서비스를 판매하고 있습니다.

AI 생성 텍스트를 사용하면 사람들로부터 민감한 정보를 추출하도록 설계된 피싱 이메일을 찾아내는 것이 훨씬 더 어렵습니다. 예전에는 문법 오류가 눈에 띄는 위험 신호였지만 이제는 그렇지 않을 수도 있습니다. ChatGPT는 산문에서 시, 이메일에 이르기까지 다양한 텍스트를 유창하게 작성할 수 있기 때문입니다.

허위사실 유포도 심각한 문제입니다. ChatGPT에서 생성된 텍스트의 규모와 잘못된 정보를 설득력 있게 만드는 능력이 결합되어 인터넷상의 모든 것을 의심스럽게 만들고 딥페이크 기술의 위험을 더욱 악화시킵니다.

ChatGPT가 정보를 생성하는 속도는 일상적인 질문에 대한 올바른 답변을 제공하는 데 전념하는 웹사이트인 Stack Exchange에 문제를 일으켰습니다. ChatGPT가 출시된 직후 많은 사용자가 ChatGPT에 답변 생성을 요청했습니다.

이 정보를 수집할 자원 봉사자가 충분하지 않으면 높은 수준의 답변을 제공하는 것이 불가능합니다. 말할 것도 없이, 답변 중 일부는 정확하지 않습니다. 사이트 중단을 방지하기 위해 Stack Exchange는 모든 답변을 생성하기 위해 ChatGPT 사용을 비활성화합니다.

8. OpenAI 회사는 모든 것을 통제하는 힘을 가지고 있습니다

더 큰 힘에는 더 큰 책임이 따르며, OpenAI 회사는 많은 힘을 가지고 있습니다. Dall-E 2, GPT-3, GPT-4 등 다양한 모델로 실제로 AI 모델을 생성한 최초의 AI 개발자 중 하나입니다.

민간 기업인 OpenAI는 ChatGPT를 교육하는 데 사용되는 데이터를 선택하고 새로운 개발이 출시되는 속도를 선택합니다. 이에 따라 인공지능의 위험성을 경고하는 전문가들이 많지만, 위험성이 둔화될 조짐은 거의 보이지 않습니다.

대신 ChatGPT의 인기로 인해 Microsoft의 Bing AI와 Google의 Bard가 포함된 차세대 대형 AI 모델을 출시하기 위한 거대 기술 기업 간의 경쟁이 촉발되었습니다. 전 세계 수많은 기술 리더들이 급속한 개발이 심각한 보안 문제로 이어질 수 있다는 우려로 인공지능 모델 개발을 연기할 것을 촉구하는 서한에 서명했습니다.

OpenAI는 안전이 최우선이라고 믿지만, 좋건 나쁘건 모델 자체가 어떻게 작동하는지 사람들이 여전히 모르는 것이 많습니다. 궁극적으로 대부분의 사람들은 OpenAI가 ChatGPT를 책임감 있게 연구, 개발 및 사용할 것이라고 맹목적으로 믿을 수 있습니다.

방법에 동의하든 그렇지 않든, OpenAI는 민간 회사이며 회사는 자체 목표와 윤리 기준에 따라 ChatGPT를 계속 개발할 것이라는 점을 기억할 가치가 있습니다.

인공 지능의 가장 큰 문제 해결

ChatGPT에는 흥미로운 점이 많지만 즉각적인 유용성을 넘어 몇 가지 심각한 문제가 있습니다.

OpenAI는 ChatGPT가 해롭고 편향된 답변을 생성할 수 있다는 점을 인정하고 사용자 피드백을 수집하여 이 문제를 완화하기를 희망합니다. 그러나 그렇지 않더라도 설득력 있는 텍스트를 생성할 수 있으며, 이는 악의적인 행위자에 의해 쉽게 악용될 수 있습니다.

개인 정보 보호 및 보안 취약성은 OpenAI 시스템이 취약하여 사용자의 개인 데이터를 위험에 빠뜨릴 수 있음을 보여줍니다. 설상가상으로 일부 사람들은 ChatGPT를 크랙하고 무제한 버전을 사용하여 전례 없는 규모로 악성 코드와 사기를 생성하고 있습니다.

일자리에 대한 위협과 교육 산업에 대한 잠재적인 혼란이 점점 커지는 문제입니다. 새로운 기술을 사용하면 앞으로 어떤 문제가 발생할지 예측하기 어렵습니다. 불행하게도 ChatGPT는 이미 상당한 과제를 제시했습니다.

위 내용은 OpenAI의 ChatGPT로 인해 발생하는 8가지 주요 문제의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제