>  기사  >  기술 주변기기  >  PwC: ChatGPT 및 생성 AI의 11가지 보안 동향

PwC: ChatGPT 및 생성 AI의 11가지 보안 동향

王林
王林앞으로
2023-05-02 10:40:061274검색

최근 PwC 분석가들은 생성 인공 지능 및 ChatGPT와 같은 도구가 위협 환경에 어떤 영향을 미치고 방어자에게 어떤 사용 사례가 나타날지에 대한 견해를 외국 기술 미디어 VentureBeat와 공유했습니다.

악성 코드와 피싱 이메일을 생성하는 AI의 능력이 기업에 새로운 과제를 안겨주지만 위협 탐지, 해결 지침, Kubernetes 및 클라우드 환경 보호와 같은 다양한 방어 사용 사례의 문을 열어준다고 믿습니다. , 등.

전반적으로 분석가들은 AI의 악의적인 사용에 맞서기 위해 장기적으로 방어적인 사용 사례가 증가할 것이라고 낙관하고 있습니다.

생성 AI가 미래의 사이버 보안에 어떤 영향을 미칠지에 대한 11가지 예측은 다음과 같습니다.

PwC: ChatGPT 및 생성 AI의 11가지 보안 동향

1. 인공 지능의 악의적 사용

우리는 모든 사람과 사물에 영향을 미치는 패러다임 전환인 인공 지능을 활용할 수 있는 방식에 있어서 변곡점에 있습니다. AI가 시민과 소비자의 손에 있으면 놀라운 일이 일어날 수 있습니다.

동시에 악의적인 위협 행위자가 악성 코드 및 정교한 피싱 이메일과 같은 사악한 목적으로 사용될 수 있습니다.

AI의 미래 기능과 잠재력에 대해 알려지지 않은 것이 많다는 점을 고려할 때 조직이 악성 네트워크에 대한 복원력을 구축하기 위한 강력한 절차를 개발하는 것이 중요합니다.

이 기술의 사용이 윤리적이어야 한다는 규정 등 사회적 가치에 기반한 규제도 필요합니다. 동시에 우리는 이 도구의 "현명한" 사용자가 되어야 하며 AI가 위험을 최소화하면서 최대의 가치를 제공하기 위해 필요한 보호 장치가 무엇인지 고려해야 합니다.

2. 인공 지능의 훈련과 결과물을 보호해야 할 필요성

이제 생성 AI는 기업의 변화를 도울 수 있는 능력을 갖추고 있으므로 리더에게는 점점 커지는 보안을 탐색하는 방법을 이해하는 것이 중요합니다. 개인 정보 보호 고려 사항을 깊이 이해하고 있는 회사와 협력하는 것이 중요합니다.

이유는 두 가지입니다. 첫째, 기업은 AI 교육을 보호해야 합니다. 모델 미세 조정을 통해 얻은 고유한 지식은 비즈니스를 운영하고, 더 나은 제품과 서비스를 제공하고, 직원, 고객 및 생태계와 소통하는 방법에 매우 중요하기 때문입니다.

두 번째로, 기업은 회사의 고객과 직원이 기술을 사용하여 수행하는 작업을 반영하기 때문에 생성 AI 솔루션에서 얻은 단서와 반응을 보호해야 합니다.

3. 생성적 AI 사용 정책 개발

생성적 AI 모델을 추가로 훈련(미세 조정)하기 위해 자체 콘텐츠, 파일 및 자산을 사용하는 것을 고려하는 경우( 산업/전문), 많은 흥미로운 비즈니스 사용 사례가 등장합니다. 이러한 방식으로 기업은 고유한 지적 재산과 지식을 사용하여 생성 AI 작동 방식을 확장할 수 있습니다.

이때 보안과 개인 정보 보호가 중요해집니다. 기업의 경우 생성 AI를 통해 콘텐츠를 생성하는 방식은 기업의 개인정보 보호여야 합니다. 다행스럽게도 대부분의 생성 AI 플랫폼은 처음부터 이를 염두에 두고 안전하고 비공개적으로 콘텐츠를 프롬프트하고, 출력하고, 세부 조정하도록 설계되었습니다.

그러나 이제 모든 사용자는 이것을 이해합니다. 따라서 모든 기업은 기밀 및 개인 데이터가 공공 시스템에 유입되는 것을 방지하고 기업 내에서 생성적 AI를 위한 안전한 환경을 구축하기 위해 생성적 AI 사용에 대한 정책을 개발해야 합니다.

4. 최신 보안 감사

제너레이티브 AI는 감사 업무의 혁신을 가져올 가능성이 높습니다. 정교한 생성 AI는 간단하고 이해하기 쉬운 언어로 작성하면서 특정 상황을 고려한 응답을 생성하는 능력을 갖추고 있습니다.

이 기술은 정보와 안내를 위한 단일 지점을 제공하는 동시에 문서 자동화를 지원하고 데이터를 분석하여 특정 쿼리에 매우 효율적으로 응답할 수 있도록 해줍니다. 윈윈(win-win) 결과입니다.

이 기능이 직원들에게 더 나은 경험을 제공하고, 결과적으로 고객에게도 더 나은 경험을 제공할 수 있다는 것을 쉽게 알 수 있습니다.

5. 데이터 위생에 더 주의를 기울이고 편견을 검토하세요

인공지능 시스템에 입력된 모든 데이터는 도난당하거나 오용될 위험이 있습니다. 첫째, 시스템에 입력할 적절한 데이터를 결정하면 기밀 및 개인 정보 손실 위험을 줄이는 데 도움이 됩니다.

또한, 더 가치 있는 결과를 얻을 수 있도록 적절한 데이터 수집을 수행하여 상세하고 목표에 맞는 팁을 공식화하고 시스템에 입력하는 것이 중요합니다.

결과가 나오면 시스템 내에 내재된 편견이 있는지 확인해야 합니다. 이 과정에서 다양한 전문가 팀을 참여시켜 편견을 평가하는 데 도움을 주세요.

코딩되거나 스크립트된 솔루션과 달리 생성 AI는 훈련된 모델을 기반으로 하므로 제공되는 응답을 100% 예측할 수 없습니다. 생성 AI가 가장 신뢰할 수 있는 결과를 제공하려면 이를 뒷받침하는 기술과 이를 활용하는 사람들 간의 협력이 필요합니다.

6. 늘어나는 위험에 대처하고 기본을 숙지하세요

제너레이티브 AI가 널리 채택되고 있는 지금, 위협 행위자로부터 보호하기 위해서는 강력한 보안 조치를 구현하는 것이 필수입니다. 이 기술의 기능을 통해 사이버 범죄자는 딥페이크 이미지를 생성하고 맬웨어 및 랜섬웨어 공격을 더 쉽게 실행할 수 있으며 기업은 이러한 과제에 대비해야 합니다.

가장 효과적인 사이버 조치는 계속해서 최소한의 관심을 받고 있습니다. 기본적인 사이버 위생을 유지하고 부피가 큰 레거시 시스템을 압축함으로써 기업은 사이버 범죄를 줄일 수 있습니다.

운영 환경을 통합하면 비용이 절감되므로 기업은 효율성을 극대화하고 사이버 보안 조치 개선에 집중할 수 있습니다.

7. 새로운 직업과 책임 창출

전반적으로 기업이 방화벽과 저항을 구축하기보다는 생성 AI 수용을 고려하는 것이 좋지만 적절한 보호 장치와 위험 완화 조치를 취하는 것이 좋습니다. 생성적 AI는 작업 수행 방식 측면에서 매우 흥미로운 잠재력을 가지고 있으며 실제로 인간이 분석하고 생성할 시간을 확보하는 데 도움이 될 수 있습니다.

생성 AI의 출현은 기술 자체와 관련된 새로운 직업과 책임으로 이어질 가능성이 있으며, AI가 윤리적이고 책임감 있게 사용되도록 보장하는 책임을 창출합니다.

또한 이 정보를 사용하는 직원은 새로운 기술, 즉 생성된 콘텐츠가 정확한지 평가하고 식별하는 능력을 개발해야 합니다.

단순한 수학 관련 작업에 계산기가 사용되는 것처럼 비판적 사고, 목적 있는 맞춤화 등 생성형 AI를 일상적으로 사용하는 데에도 적용해야 할 인간의 기술이 많이 있습니다. 인공 지능.

표면적으로는 인간 작업을 자동화하는 능력 측면에서 위협처럼 보일 수도 있지만 창의력을 발휘하고 사람들이 직장에서 탁월한 능력을 발휘하도록 도울 수도 있습니다.

8. 인공 지능을 활용하여 사이버 투자 최적화

경제적 불확실성 속에서도 기업은 2023년에 사이버 보안 지출을 줄이기 위해 적극적으로 노력하지 않습니다. 그러나 CISO는 투자 결정을 고려해야 합니다. ?

그들은 더 적은 비용으로 더 많은 일을 해야 한다는 압박에 직면해 있으며, 이로 인해 지나치게 수동적인 위험 예방 및 완화 프로세스를 자동화된 대안으로 대체하는 기술에 투자하게 됩니다.

생성 AI는 완벽하지는 않지만 매우 빠르고 효율적이며 일관성이 있으며 기술이 빠르게 향상되고 있습니다. 더 큰 위험 범위 및 감지를 위해 설계된 기계 학습 메커니즘과 같은 올바른 위험 기술을 구현함으로써 조직은 비용, 시간 및 인력을 절약하고 미래의 불확실성을 더 효과적으로 탐색하고 견딜 수 있습니다.

9. 위협 인텔리전스 강화

생성 AI의 힘을 활용하는 기업이 맬웨어, 잘못된 정보 또는 허위 정보의 생성 및 확산을 방지하기 위한 보호에 중점을 두는 반면, 우리는 생성 AI가 지능이라는 점을 가정해야 합니다. 악의적인 행위자가 이러한 목적으로 사전에 조치를 취하는 데 사용됩니다.

2023년에는 생성 AI를 활용하여 사회에 좋은 일을 할 수 있도록 위협 인텔리전스 및 기타 방어 기능이 더욱 향상될 것으로 예상됩니다. 생성적 AI는 효율성과 실시간 신뢰 의사결정의 근본적인 발전을 가능하게 합니다. 예를 들어, 시스템 및 정보에 대한 액세스는 현재 배포된 액세스 및 ID 모델보다 훨씬 더 높은 수준의 신뢰도로 실시간 결론으로 ​​형성될 수 있습니다.

확실한 것은 생성 AI가 모든 산업과 그 내 기업의 운영 방식에 지대한 영향을 미칠 것이라는 점입니다. PwC는 이러한 발전이 2023년에도 계속해서 인간 주도 및 기술 중심이 될 것이라고 믿습니다. 가장 빠른 발전이 이루어질 것입니다. 2016년에는 향후 수십 년의 방향을 설정합니다.

10. 위협 예방 및 규정 준수 위험 관리

위협 환경이 계속 진화함에 따라 개인 정보가 넘쳐나는 산업인 의료 부문은 계속해서 위협 행위자의 표적이 되고 있습니다.

의료 업계 경영진은 사이버 예산을 늘리고 사이버 공격을 예방하는 데 도움이 될 뿐만 아니라 규정 준수 위험을 관리하고 환자 및 직원 데이터를 더 잘 보호하고 의료 비용을 절감하며 비효율적인 프로세스를 줄이는 등의 자동화 기술에 투자하고 있습니다.

제너레이티브 AI가 계속 발전함에 따라 의료 시스템 보안과 관련된 위험과 기회도 늘어나고 있으며, 의료 산업이 이 신기술을 수용하면서 사이버 방어 및 탄력성을 구축하는 것이 중요하다는 점을 강조합니다.

11. 디지털 신뢰 전략 구현

제너레이티브 AI와 같은 기술의 혁신 속도는 규제의 "패치워크" 진화와 제도적 신뢰의 침식과 결합되어 더욱 전략적인 접근 방식이 필요합니다.

디지털 신뢰 전략을 추구함으로써 기업은 사이버 보안, 개인정보 보호, 데이터 거버넌스 등 전통적으로 단절된 기능을 더 효과적으로 조정하여 위험을 예측하는 동시에 기업의 가치를 실현할 수 있습니다.

기본적으로 디지털 신뢰 프레임워크는 규정 준수를 넘어서는 솔루션을 식별합니다. 대신 조직과 고객 간의 신뢰와 가치 교환을 우선시합니다.

위 내용은 PwC: ChatGPT 및 생성 AI의 11가지 보안 동향의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제