>  기사  >  기술 주변기기  >  ChatGPT 애플리케이션이 호황을 누리고 있습니다. 안전한 빅데이터 기반을 어디에서 찾을 수 있나요?

ChatGPT 애플리케이션이 호황을 누리고 있습니다. 안전한 빅데이터 기반을 어디에서 찾을 수 있나요?

王林
王林앞으로
2023-05-21 15:31:061224검색

AIGC가 인류 사회에 엄청난 변화를 가져오고 있다는 것은 의심의 여지가 없습니다.

ChatGPT 애플리케이션이 호황을 누리고 있습니다. 안전한 빅데이터 기반을 어디에서 찾을 수 있나요?

눈부시고 화려한 외관에서 벗어나 대용량 데이터 지원과 운영의 핵심을 떼놓을 수 없습니다.

ChatGPT의 '침입'으로 인해 각계각층에서 콘텐츠 표절에 대한 우려가 높아지고 네트워크 데이터 보안에 대한 인식이 높아졌습니다.

AI 기술은 중립적이지만 책임과 의무를 회피하는 이유가 되지는 않습니다.

최근 영국 정보기관인 영국정부통신본부(GCHQ)는 ChatGPT와 기타 인공지능 챗봇이 새로운 보안 위협이 될 것이라고 경고했습니다.

ChatGPT의 개념이 생긴 지 오래되지 않았지만 네트워크 보안과 데이터 보안에 대한 위협은 업계의 초점이 되었습니다.

아직 개발 초기 단계인 ChatGPT에 대해서 이런 걱정은 근거 없는 걸까요?

보안 위협이 발생할 수 있습니다

지난해 말 스타트업 OpenAI가 ChatGPT를 출시한 데 이어, 투자자인 마이크로소프트는 올해 ChatGPT 기술을 기반으로 한 챗봇 'Bing Chat'을 출시했습니다.

이런 종류의 소프트웨어는 사람과 같은 대화를 제공할 수 있기 때문에 이 서비스는 전 세계적으로 인기를 끌었습니다.

ChatGPT 애플리케이션이 호황을 누리고 있습니다. 안전한 빅데이터 기반을 어디에서 찾을 수 있나요?

GCHQ의 사이버 보안 부서는 AI 챗봇을 제공하는 회사가 사용자가 입력한 쿼리를 볼 수 있으며 ChatGPT의 경우 개발자 OpenAI가 이를 볼 수 있다고 언급했습니다.

ChatGPT는 수많은 텍스트 말뭉치를 통해 훈련되며 딥 러닝 기능은 그 뒤에 있는 데이터에 크게 의존합니다.

정보 유출 우려로 인해 많은 기업과 기관에서 "ChatGPT 금지"를 발표했습니다.

런던 시 법률 회사 Mishcon de Reya는 법적 권한이 있는 정보가 유출될 수 있다는 우려로 변호사가 ChatGPT에 고객 데이터를 입력하는 것을 금지했습니다.

국제 컨설팅 회사 Accenture는 기밀 고객 데이터가 잘못된 손에 들어갈 수 있다는 우려로 전 세계 700,000명의 직원에게 비슷한 이유로 ChatGPT를 사용하지 말라고 경고했습니다.

영국 컴퓨터 칩 기업 Arm의 모회사인 일본 소프트뱅크 그룹도 인공지능 챗봇에 회사 직원의 신원 정보나 기밀 데이터를 입력하지 말라고 직원들에게 경고했습니다.

올해 2월 JPMorgan Chase는 직장에서 ChatGPT 사용을 제한한 최초의 월스트리트 투자 은행이 되었습니다.

Citigroup과 Goldman Sachs는 이에 따라 직원들이 회사 전체에서 ChatGPT에 액세스하는 것을 금지하고 후자는 직원들이 거래 현장에서 제품을 사용하는 것을 제한했습니다.

앞서 직원들이 ChatGPT를 사용할 때 비밀이 유출되는 것을 방지하기 위해 Amazon과 Microsoft는 민감한 데이터를 직원과 공유하는 것을 금지했습니다. 이 정보가 추가 반복을 위한 교육 데이터로 사용될 수 있기 때문입니다.

사실 이러한 인공지능 챗봇 뒤에는 LLM(대형 언어 모델)이 있으며, 사용자의 쿼리 내용은 저장되어 향후 어느 시점에서 LLM 서비스나 모델을 개발하는 데 사용될 것입니다.

이는 LLM 제공업체가 관련 쿼리를 읽고 어떤 방식으로든 이를 향후 릴리스에 통합할 수 있음을 의미합니다.

LLM 운영자는 데이터를 보호하기 위한 조치를 취해야 하지만 무단 액세스 가능성을 완전히 배제할 수는 없습니다. 따라서 기업은 데이터 노출 위험을 최소화하기 위해 LLM 사용을 모니터링하기 위한 엄격한 정책을 마련하고 기술 지원을 제공해야 합니다.

또한 ChatGPT 자체는 네트워크 보안이나 데이터 보안을 직접 공격하는 능력은 없지만 자연어를 생성하고 이해하는 능력으로 인해 허위 정보 위조, 사회 공학 공격 등에 사용될 수 있습니다.

또한 공격자는 자연어를 사용하여 ChatGPT가 해당 공격 코드, 악성 코드, 스팸 이메일 등을 생성하도록 할 수도 있습니다.

따라서 AI는 공격 능력이 없는 사람들도 AI를 기반으로 공격을 생성할 수 있게 하여 공격 성공률을 크게 높일 수 있습니다.

자동화, AI, "서비스로서의 공격"과 같은 기술과 모델의 지원으로 네트워크 보안 공격이 증가하고 있습니다.

ChatGPT가 대중화되기 전에는 AI 기술을 이용한 해커들의 사이버 공격이 많았습니다.

사실 인공지능이 사용자에 의해 "리듬에서 벗어나도록" 조정되는 것은 드문 일이 아닙니다. 6년 전 마이크로소프트는 지능형 채팅 로봇 테이(Tay)를 출시했을 때 예의바르게 행동했지만 내부적으로는 그랬습니다. 24시간 동안 그는 비양심적인 사용자들에 의해 "악하게 이끌려" 무례하고 더러운 말을 하고 심지어 인종차별, 음란물, 나치까지 포함하여 그의 말은 차별, 증오, 편견으로 가득 차 있었기 때문에 그는 오프라인 상태가 되어 종료되었습니다. 그의 짧은 인생.

한편, ChatGPT와 같은 AI 도구를 사용할 때 사용자가 실수로 개인 데이터를 클라우드 모델에 입력할 수 있다는 위험이 사용자에게 더 가깝습니다. 데이터 유출 및 규정 준수 위험으로 이어집니다.

AI 애플리케이션은 안전한 기반을 마련해야 합니다

대규모 언어 모델로서 ChatGPT의 핵심 로직은 실제로 대규모 데이터의 컴퓨팅 결과를 수집, 처리, 처리 및 출력하는 것입니다.

일반적으로 이러한 링크는 기술 요소, 조직 관리 및 디지털 콘텐츠의 세 가지 측면에서 위험과 연관될 수 있습니다.

ChatGPT는 모델 학습 및 실행에 필요한 데이터를 저장할 때 개인 정보 보호 및 보안 정책을 엄격히 준수하겠다고 밝혔지만, 향후 네트워크 공격 및 데이터 크롤링이 발생할 수 있으며 여전히 무시할 수 없는 데이터 보안 위험이 있습니다. .

특히 국가 핵심 데이터, 중요한 지역 및 산업 데이터, 개인 정보 보호 데이터의 캡처, 처리 및 결합 사용에 있어서는 데이터 보안 보호와 흐름 공유의 균형이 필요합니다.

AI 기술에는 데이터 및 개인 정보 유출이라는 숨겨진 위험 외에도 데이터 편견, 허위 정보, 모델 해석의 어려움 등의 문제가 있어 오해와 불신을 초래할 수 있습니다.

트렌드가 도래했고 AIGC 물결이 도래하고 있습니다. 유망한 미래를 배경으로 앞으로 나아가 데이터 보안 보호벽을 구축하는 것이 중요합니다.

특히 AI 기술이 점차 발전하면서 생산성 향상을 위한 강력한 도구가 될 수 있을 뿐만 아니라, 쉽게 불법 범죄의 도구가 될 수도 있습니다.

QiAnXin Threat Intelligence Center의 모니터링 데이터에 따르면 2022년 1월부터 10월까지 950억 개 이상의 중국 기관 데이터가 해외에서 불법 거래되었으며, 그 중 570억 개가 개인 정보였습니다.

따라서 데이터 저장, 계산, 유통의 보안을 어떻게 보장하는가는 디지털 경제 발전의 전제 조건입니다.

전체적으로 보면 최고 수준의 디자인과 산업 발전이 함께 이루어져야 하며, 사이버 보안법을 ​​기반으로 위험 및 책임 분석 체계를 정비하고 보안 책임 메커니즘을 확립해야 합니다.

동시에 규제 당국은 정기적인 검사를 실시할 수 있고, 보안 분야의 기업은 협력하여 전 과정의 데이터 보안 시스템을 구축할 수 있습니다.

데이터 규정 준수 및 데이터 보안 문제와 관련하여, 특히 "데이터 보안법"이 도입된 이후 데이터 개인 정보 보호가 점점 더 중요해지고 있습니다.

AI 기술 적용 시 데이터 보안과 규정 준수가 보장되지 않으면 기업에 큰 위험이 발생할 수 있습니다.

특히 중소기업은 데이터 개인정보 보호 및 보안에 대한 지식이 부족하고, 보안 위협으로부터 데이터를 보호하는 방법을 모릅니다.

데이터 보안 컴플라이언스는 특정 부서의 문제가 아닌 기업 전체의 가장 중요한 문제입니다.

기업은 IT 인력, AI 부서, 데이터 엔지니어, 개발자, 보고서 사용자 등 데이터를 사용하는 모든 사람이 데이터를 보호할 의무가 있음을 직원에게 교육해야 합니다. 사람과 기술이 함께 결합됩니다. .

앞서 언급한 잠재적 위험에 직면하여 규제 기관 및 관련 기업은 어떻게 제도적, 기술적 차원에서 AIGC 분야의 데이터 보안 보호를 강화할 수 있을까요?

사용자 단말의 사용을 직접적으로 제한하는 등의 규제 조치를 취하는 것보다, AI 기술 연구개발 기업에 과학기술적 윤리 원칙을 따르도록 명확하게 요구하는 것이 더 효과적일 것입니다. 왜냐하면 이러한 기업은 사용자의 범위를 제한할 수 있기 때문입니다. '기술적인 수준에서 사용하세요.

기관 차원에서는 AIGC의 기반 기술이 요구하는 데이터의 특성과 기능을 기반으로 데이터 분류 및 계층적 보호 시스템을 구축하고 개선하는 것이 필요합니다.

예를 들어 훈련 데이터 세트의 데이터는 데이터 권리 주체에 대한 데이터의 가치에 따라 데이터 주체, 데이터 처리 수준, 데이터 권리 속성 등에 따라 분류 및 관리될 수 있으며, 데이터가 변조, 파기된 경우, 대상의 위험 수준이 등급화됩니다.

데이터 분류 및 분류를 기반으로 데이터 유형 및 보안 수준에 맞는 데이터 보호 표준 및 공유 메커니즘을 설정합니다.

기업을 중심으로 AIGC 분야에 '프라이빗 컴퓨팅' 기술 적용을 가속화해야 합니다.

이러한 유형의 기술을 사용하면 데이터 자체를 노출하지 않고 SDK를 공유하거나 SDK 권한을 열어 여러 데이터 소유자가 데이터를 공유, 상호 운용, 계산 및 모델링할 수 있습니다. 다른 참가자에게 유출되었습니다.

또한, 전 과정의 준법경영의 중요성이 점점 더 부각되고 있습니다.

기업은 먼저 자신이 사용하는 데이터 리소스가 법적 및 규제 요구 사항을 준수하는지 확인해야 합니다. 둘째, 기업의 혁신적인 연구 및 개발도 이를 준수해야 합니다. 대중의 윤리적 기대를 최대한 충족시킵니다.

동시에 기업은 내부 관리 표준을 제정하고 관련 감독 부서를 설립하여 AI 기술 적용 시나리오의 모든 측면에서 데이터를 감독하여 데이터 소스가 합법적이고 처리가 합법적이며 출력이 합법적인지 확인해야 합니다. 자신의 규정 준수를 보장하기 위해.

AI 적용의 핵심은 배포 방법과 비용을 고려하는 데 있지만, 보안 준수와 개인 정보 보호가 제대로 이루어지지 않으면 기업에 "더 큰 위험"이 포함될 수 있다는 점에 유의해야 합니다.

AI는 양날의 검입니다. 잘 사용하면 기업이 더 강력해집니다. 부적절하게 사용하면 보안, 개인 정보 보호 및 규정 준수를 무시하면 기업에 더 큰 손실이 발생합니다.

따라서 AI를 적용하려면 먼저 보다 안정적인 '데이터베이스'를 구축해야 한다는 말이 있듯이 꾸준한 발전만이 장기적인 발전으로 이어질 수 있습니다.

위 내용은 ChatGPT 애플리케이션이 호황을 누리고 있습니다. 안전한 빅데이터 기반을 어디에서 찾을 수 있나요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제