>  기사  >  기술 주변기기  >  ChatGPT 과거와 미래: 디지털 통신 분야의 인공 지능 및 데이터 개인정보 보호의 진화

ChatGPT 과거와 미래: 디지털 통신 분야의 인공 지능 및 데이터 개인정보 보호의 진화

WBOY
WBOY앞으로
2023-04-25 23:49:071336검색

번역가 | Liu Tao

리뷰어 | Chonglou

지난 몇 년간의 인공지능의 발전은 우리에게 기회뿐만 아니라 좌절도 안겨주었습니다. 몇 가지 주요 혁신이 인터넷에 혁명을 일으켰으며 많은 혁신이 더 나은 방향으로 이루어졌습니다.

하지만 사람들이 OpenAI의 ChatGPT 출시를 준비하기 전에 이미 전 세계를 폭풍으로 몰아넣었습니다. 인간과 자연스럽게 대화하고 아주 짧은 시간 안에 통찰력 있는 답변을 줄 수 있는 능력을 만들어낸다.

ChatGPT가 무엇을 할 수 있는지에 점점 더 많은 대중이 관심을 갖기 시작하면서 전 세계의 모든 비전 있는 리더는 그때부터 디지털 통신 기술이 혁명적인 변화를 가져올 것임을 깨닫습니다.

그러나 혁신은 종종 논란을 불러일으키는데, 이 경우 '슈퍼노바' 챗봇은 합법적인 데이터에 대한 개인정보 보호 문제를 처리해야 했습니다.

ChatGPT를 개발하려면 광범위한 데이터 수집이 필요했습니다. OpenAI는 챗봇의 작동 방식, 데이터 처리 및 저장 방법을 정확하게 설명할 수 없기 때문에 사고 리더와 정부 개인정보 보호 감시자들은 점점 더 우려하고 있으며 데이터 개인정보 보호 관행에 의문을 제기하고 있습니다.

2023년 설문 조사에 따르면 전 세계 소비자의 67%가 기술 회사로부터 데이터에 대한 통제권을 상실하고 있다고 생각합니다.

동일한 설문 조사에 따르면 iOS 앱의 72.6%가 개인 사용자 데이터를 추적하며, 무료 앱은 유료 앱보다 사용자 데이터를 추적할 가능성이 4배 더 높습니다.

이 점이 걱정된다면 대부분의 ChatGPT 사용자는 여전히 무료 버전을 사용하고 있다는 점을 기억하세요.

이를 고려하여 데이터 개인 정보 보호 회사는 ChatGPT에서 생성된 결과를 최대한 활용하고, 데이터 개인 정보 보호를 강화하는 제품을 제공하고, 사람들이 자신의 데이터를 알 수 있도록 데이터 투명성과 책임감을 높이는 문화를 조성해야 합니다. 많은 거대 기술 기업처럼 이익을 얻기 위해 이러한 획기적인 AI 기술이 비윤리적인 전술에 의존하는 것을 방지하는 동시에 권리와 사용 방법을 파악합니다.

1. ChatGPT는 이미 사용자를 알고 있을 수 있습니다.

ChatGPT는 LLM(대형 언어 모델)입니다. 즉, 제대로 작동하려면 많은 양의 데이터가 필요하므로 정보를 일관성 있게 예측하고 처리할 수 있습니다.

즉, 인터넷에 기사를 작성한 적이 있다면 ChatGPT가 이 정보를 스캔하고 처리했을 가능성이 매우 높습니다.

또한 ChatGPT와 같은 대규모 언어 모델(LLM)은 알고리즘을 훈련하기 위해 온라인 소스(예: 전자책, 기사, 소셜 미디어 게시물 등)의 대량 데이터에 크게 의존합니다. 이를 통해 사용자는 이를 사용하여 사람이 작성한 문자 메시지와 동일하게 보이는 실제 응답을 생성할 수 있습니다.

간단히 말하면, 웹에 게시된 모든 기사는 ChatGPT 또는 경쟁사의 LLM(대형 언어 모델)을 교육하는 데 사용될 수 있으며, 이는 확실히 ChatGPT의 성공 이후 후속 조치가 될 것입니다.

최근 OpenAI가 오픈소스 라이브러리의 취약점으로 인한 데이터 유출을 인정한 만큼, 데이터 프라이버시 문제에 대한 우려가 있는 것은 당연합니다. 또한, 한 사이버 보안 회사는 최근 추가된 구성 요소가 적극적으로 악용되는 취약점에 취약하다는 사실을 발견했습니다.

OpenAI가 조사한 결과 유출된 데이터에는 활성 사용자의 채팅 기록 제목과 새로 생성된 대화의 첫 번째 메시지가 포함되어 있는 것으로 나타났습니다.

이 취약점은 성과 이름, 이메일 주소, 지불 주소, 지불 카드 만료일, 지불 카드 번호의 마지막 4자리를 포함하여 ChatGPT Plus 사용자 중 1.2%의 지불 정보도 노출했습니다.

이것이 데이터 보호 재앙이라고 말하는 것은 절제된 표현입니다. ChatGPT 내부에는 아마도 지구상의 어떤 제품보다 더 많은 정보가 있을 것이며 민감한 정보는 출시된 지 불과 몇 달 만에 이미 유출되고 있습니다.

2. ChatGPT 사용자는 무엇을 해야 합니까?

희망은 이것입니다. ChatGPT가 제기하는 개인 정보 보호에 대한 실제 위험에 대중의 관심을 집중시키는 것은 개인이 데이터 보호의 중요성을 이해하고 더 자세한 내용을 살펴볼 수 있는 훌륭한 기회를 제공할 수 있다는 것입니다. 이는 ChatGPT 사용자 기반의 급속한 확장을 고려할 때 특히 중요합니다.

예방 조치를 취하고 경계하는 것 외에도 사용자는 개인 데이터에 대한 액세스, 편집 및 삭제 권한을 유지하는 것을 포함하는 데이터 주체 권리(DSR)를 행사해야 합니다.

디지털 시대에 모든 사용자는 자신의 개인 정보를 더 잘 관리하고 최대한의 책임을 갖고 사용할 수 있도록 더 강력한 데이터 개인 정보 보호 규정을 옹호해야 합니다.

ChatGPT는 이에 대응한 것으로 보입니다. 이제 새 세션에서는 민감한 데이터나 회사 비밀이 시스템 내부에 들어가면 안전하지 않기 때문에 사람들이 입력하지 않도록 유도하기 때문입니다.

삼성은 이 작업을 수행하는 것이 여전히 어렵다는 사실을 발견했으며 더 많은 사람들이 ChatGPT 프롬프트를 사용할 때 주의를 기울이고 주의를 기울여야 합니다.

쇼핑을 위해 새로운 ChatGPT 플러그인을 사용하는 것이 무해해 보일 수 있지만, 인터넷에서 먹는 모든 것에 대한 안전하지 않은 디지털 기록을 정말로 원하시나요?

이러한 개인 정보 보호 문제가 해결될 때까지 우리는 대중으로서 속도를 늦추고 새로운 AI 기술에 대한 열광에 너무 사로잡히지 않아야 합니다.

3. 회사는 무엇을 해야 하나요?

사용자가 거래 종료를 약속한 경우 회사는 부적절한 데이터 사용 및 보호 관행에 대해 책임을 져야 합니다.

따라서 크고 작은 기업은 개인이 자신의 데이터가 어떻게 사용되고 어디로 가는지, 그리고 이 데이터에 접근할 수 있는 제3자 단체를 명확하게 이해할 수 있도록 투명하고 이해하기 쉬운 프로토콜을 장려해야 합니다. .

또한 비즈니스 리더는 사용자에게 데이터 주체 권리(DSR)를 행사할 수 있는 명확한 방법을 제공하고 직원에게 데이터 처리 및 저장에 대한 윤리적 지침을 준수하도록 교육해야 합니다.

사용자와 회사의 위치에 따라 옵트아웃 또는 옵트인의 필요성을 명확하게 나타내지 않기 때문에 대부분의 기본 권한이 여전히 규제 회색 영역에 있기 때문에 우리는 아직 그 목표와는 거리가 멀습니다.

데이터 개인정보 보호와 관련하여 모든 조직은 투명성, 명확성 및 책임성을 최우선적으로 고려해야 합니다.

ChatGPT의 등장으로 데이터 개인 정보 보호 감시의 새로운 시대가 열렸습니다. 여기서 조직과 개인은 위반 및 오용을 방지하기 위해 데이터가 적절하게 처리되도록 동등하게 적극적으로 조치를 취해야 합니다.

ChatGPT는 역사상 그 어떤 회사보다 더 많은 데이터를 빠르게 수집하고 있으며, 보안이 잘못되면 개인 데이터 프라이버시에 미치는 영향은 비교할 수 없을 만큼 클 것입니다.

기업이 잠재적인 문제를 진정으로 인식하고 싶다면 보다 전략적으로 데이터를 보호하고 인터넷에서 소비자의 신뢰를 구축해야 합니다. 그렇지 않으면 더 나은 공유 디지털 미래가 심각한 위험에 처하게 됩니다.

원본 링크: https://hackernoon.com/the-evolution-of-ai-and-data-privacy-how-chatgpt-is-shaping-the-future-of-digital-communication

번역자 소개:

Liu Tao, 51CTO 커뮤니티 편집자, 대규모 중앙 기업의 시스템 실행 감지 및 제어 담당자.

위 내용은 ChatGPT 과거와 미래: 디지털 통신 분야의 인공 지능 및 데이터 개인정보 보호의 진화의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제