최근 OpenAI가 챗봇인 ChatGPT를 출시했는데, 그 강력한 성능으로 많은 관심을 끌었고, 많은 사람들은 세상이 변하기 시작했다고 생각하기도 합니다.
만약 학생들이 ChatGPT를 통해 논문을 작성할 수 있다면 대학생들은 분명 이 AI 도구를 사용하여 학업을 완료하는 방법을 알아내려고 애쓰게 될 것입니다. 왜냐하면 ChatGPT가 로스쿨 시험, 비즈니스 스쿨 시험, 심지어 의료 면허 시험까지 통과하는 것을 보았기 때문입니다. 전 세계의 직원들이 이를 사용하여 이메일, 보고서를 작성하고 심지어 컴퓨터 코드도 작성하기 시작했습니다.
그러나 현재 ChatGPT는 완벽하지 않고 데이터베이스도 최신이 아니지만 일반 사람들이 이전에 접했던 어떤 인공 지능 시스템보다 강력하며 사용자 경험은 인공 지능보다 더 친숙합니다. 엔터프라이즈급 시스템의
ChatGPT와 같은 대규모 언어 모델이 충분히 커지고 신경망에 충분한 훈련 데이터, 매개변수 및 레이어가 있으면 이상한 일이 일어나기 시작하는 것 같습니다. 더 작은 모델에서는 분명하지 않거나 가능하지 않은 "기능"을 개발합니다. 즉, 상식과 세상에 대한 이해가 있는 것처럼 행동하기 시작합니다. 또는 적어도 그에 가까운 무언가가 있는 것처럼 행동하기 시작합니다.
최근 뉴스를 통해 주요 기술 기업들이 서둘러 대응하는 모습을 볼 수 있습니다. 마이크로소프트는 OpenAI에 100억 달러를 투자하고 Bing에 ChatGPT 기능을 추가하면서 오랫동안 휴면 상태였던 검색 엔진이 다시 화제가 됐다.
Google은 또한 AI 챗봇에 대한 자체 계획을 발표하고 OpenAI 경쟁사인 Anthropic에 투자했습니다. Anthropic은 전 OpenAI 직원이 설립했으며 자체 챗봇 Claude를 보유하고 있습니다.
Amazon은 자체 ChatGPT 경쟁자를 구축할 계획을 발표하고 또 다른 AI 스타트업인 Hugging Face와의 파트너십을 발표했습니다. Facebook의 Meta도 자체 AI 작업 계획을 빠르게 따를 것입니다.
그동안 다행히도 이 신기술은 보안 전문가에게도 제공됩니다. 그들은 연구를 위해 이를 사용할 수 있고, 이메일 및 보고서 작성을 돕고, 코드 작성을 돕고, 우리가 자세히 알아볼 수 있는 더 많은 방법을 사용할 수 있습니다.
그러나 놀랍게도 악당들은 피싱 및 사회 공학뿐만 아니라 이러한 모든 목적에도 이를 사용하고 있습니다. 그들은 또한 ChatGPT를 사용하여 불과 몇 달 전만 해도 상상할 수 없었던 규모와 충실도의 딥페이크를 만드는 데 도움을 주었습니다. ChatGPT 자체도 보안 위협이 될 수 있습니다.
다음으로, 악의적인 행위자가 사용할 수 있는 방식부터 시작하여 이러한 AI 도구가 데이터 센터에 가져올 수 있는 보안 주제에 대해 논의해 보겠습니다. 어떤 경우에는 이미 ChatGPT를 사용하고 있습니다. 그런 다음 사이버 보안 전문가를 위한 ChatGPT와 같은 인공 지능 도구 사용의 이점과 위험을 살펴봅니다.
악의적인 행위자가 이미 ChatGPT를 사용하고 있다는 것은 의심의 여지가 없습니다. 그렇다면 사이버 공격을 촉진하기 위해 ChatGPT를 어떻게 사용할 수 있습니까? 2월에 발표된 BlackBerry IT 리더 설문 조사에서 응답자의 53%는 해커가 더욱 그럴듯한 피싱 이메일을 만드는 데 도움이 될 것이라고 답했으며, 49%는 해커의 코딩 기술을 향상시키는 데 도움이 된다고 언급했습니다.
설문조사의 또 다른 결과: IT 및 사이버 보안 의사 결정자의 49%는 ChatGPT가 잘못된 정보와 허위 정보를 퍼뜨리는 데 사용될 것이라고 답했으며, 48%는 ChatGPT가 완전히 새로운 악성 코드를 만드는 데 사용될 수 있다고 믿었습니다. 또 다른 46%의 응답자는 ChatGPT가 기존 공격을 개선하는 데 도움이 될 수 있다고 답했습니다.
Constellation Research의 부사장이자 수석 분석가인 Dion Hinchcliffe는 다음과 같이 말했습니다. “코더와 비코더가 ChatGPT를 사용하여 악용 가능한 취약점을 생성하는 것을 목격하고 있습니다.
결국 AI 모델은 공개된 모든 내용을 읽었습니다. Hinchcliffe는 "모든 연구 취약성 보고서와 모든 보안 전문가의 모든 포럼 토론이 포함됩니다. 이는 모든 종류의 방식으로 시스템을 손상시킬 수 있는 슈퍼 두뇌와 같습니다.
무서운 전망입니다."라고 말했습니다.
그리고 물론 공격자가 이를 사용하여 글을 쓸 수도 있다고 그는 덧붙였습니다. "우리는 전 세계에서 잘못된 정보와 피싱 콘텐츠로 넘쳐날 것입니다."
ChatGPT를 사용하는 데이터 센터 사이버 보안 전문가를 위해 Cloud Security Alliance의 CEO인 Jim Reavis는 말했습니다. 지난 몇 주 동안 AI 도구를 사용한 놀라운 바이러스 실험을 보았습니다.
“보안 오케스트레이션, 자동화 및 대응 도구, DevSecOps 및 일반 클라우드 컨테이너 위생을 위해 많은 코드를 작성하는 것을 볼 수 있습니다.”라고 그는 말했습니다. "ChatGPT는 수많은 보안 및 개인 정보 보호 정책을 생성합니다. 아마도 가장 주목할만한 점은 고품질 피싱 이메일을 생성하기 위해 많은 테스트를 수행하여 이와 관련하여 방어력을 더욱 강화할 수 있기를 바랍니다.
또한 Reavis입니다." 몇몇 주요 사이버 보안 공급업체는 이미 특정 규칙에 따라 훈련된 엔진에 유사한 기술을 보유하고 있거나 곧 보유하게 될 것이라고 말했습니다.
“이전에 자연어 인터페이스 기능을 갖춘 도구를 본 적이 있지만 ChatGPT를 위한 널리 개방된 고객 대면 인터페이스는 없었습니다.”라고 그는 덧붙였습니다. "ChatGPT와 인터페이스하는 상용 솔루션을 곧 볼 수 있기를 바라지만, 지금 가장 좋은 점은 ChatGPT와 공용 클라우드의 DIY 보안 자동화를 갖춘 여러 네트워크 보안 도구의 시스템 통합이라고 생각합니다." 동료들은 데이터 센터 사이버 보안 팀이 보다 효율적으로 운영하고, 제한된 리소스를 확장하고, 새로운 위협과 공격을 식별할 수 있도록 돕는 데 큰 가능성을 갖고 있습니다.
“시간이 지남에 따라 거의 모든 사이버 보안 기능이 기계 학습을 통해 향상될 것입니다.”라고 Reavis는 말했습니다. "또한 우리는 악의적인 행위자가 ChatGPT와 같은 도구를 사용하고 있다는 것을 알고 있으며 악의적인 AI에 맞서기 위해 도구를 활용해야 한다고 가정합니다."
이메일 보안 공급업체가 ChatGPT를 사용하는 방법
Mimecast의 수석 데이터 과학자이자 기계 학습 엔지니어인 Jose Lopez는 "우리는 일반적으로 실제 이메일을 사용하여 모델을 교육합니다."라고 말했습니다.
훈련 세트를 위한 합성 데이터를 생성하는 것은 ChatGPT와 같은 대규모 언어 모델의 주요 장점 중 하나입니다. "이제 우리는 이 대규모 언어 모델을 사용하여 더 많은 이메일을 생성할 수 있습니다"라고 Lopez는 말했습니다.
그러나 그는 Mimecast가 어떤 특정 대규모 언어 모델을 사용하는지 공개를 거부했습니다. 그는 그 정보가 회사의 '비밀 무기'라고 말했습니다.
그러나 Mimecast는 현재 ChatGPT에서 수신 이메일이 생성되었는지 여부를 감지하지 않습니다. ChatGPT를 사용하는 것은 나쁜 행위자만이 아니기 때문입니다. AI는 많은 직원이 자신만의 완벽한 법적 커뮤니케이션을 개선하기 위해 사용하는 매우 유용한 생산성 도구입니다.
예를 들어, Lopez 자신은 스페인어이고 이제 문법 검사기 대신 ChatGPT를 사용하여 글쓰기를 개선합니다.
Lopez는 또한 ChatGPT를 사용하여 코드 작성을 돕습니다. 이는 아마도 많은 보안 전문가들이 하고 있는 작업일 것입니다.
Lopez는 “저는 일상 업무에서 ChatGPT를 매일 사용합니다. 프로그래밍에 정말 유용하기 때문이죠.”라고 말했습니다. "때로는 틀릴 때도 있지만 다른 방법에 마음을 열 만큼 옳을 때가 많습니다. ChatGPT가 무능한 사람을 슈퍼 해커로 만들 것이라고는 생각하지 않습니다."
AI 기반 보안 도구의 부상
Lopez는 다음 버전이 품질면에서 큰 도약이 될 것이라고 덧붙였습니다. 또한 ChatGP의 오픈 소스 버전이 곧 출시될 예정입니다.
“가까운 미래에 특정 사물에 맞게 모델을 미세 조정할 수 있게 될 것입니다.”라고 그는 말했습니다. "이제 망치만 있는 것이 아니라 전체 도구 모음이 있습니다."
예를 들어 기업은 모델을 미세 조정하여 소셜 네트워크에서 관련 활동을 모니터링하고 잠재적인 위협을 찾을 수 있습니다. 결과가 현재 방법보다 나은지는 시간만이 알 수 있습니다.
기존 소프트웨어에 ChatGPT를 추가하는 것도 더 쉽고 저렴해지고 있습니다. OpenAI는 개발자가 ChatGPT 및 음성-텍스트 모델 Whisper에 액세스할 수 있는 API를 출시했습니다.
일반적으로 기업은 빠르게 진화하는 위협에 이전보다 더 큰 규모로 대처하기 위해 AI 기반 보안 도구를 빠르게 채택하고 있습니다.
최신 Mimecast 설문 조사에 따르면 기업의 92%가 이미 사이버 보안을 강화하기 위해 인공 지능과 기계 학습을 사용하고 있거나 사용할 계획을 갖고 있습니다.
특히, 50%는 이를 사용하면 위협을 보다 정확하게 탐지할 수 있다고 믿고 있으며, 49%는 위협 차단 능력이 향상될 수 있다고 믿고 있으며, 48%는 공격 발생 시 더 빠르게 치료할 수 있다고 믿고 있습니다.
응답자의 81%는 이메일 및 협업 도구 사용자에게 실시간 상황별 알림을 제공하는 AI 시스템이 큰 도움이 될 것이라고 말했습니다.
"12%는 이러한 시스템의 이점이 사이버 보안 실행 방식에 혁명을 일으킬 것이라고 말했습니다." 보고서에 따르면
Omdia 사이버 보안 부문의 수석 분석가인 Ketaki Borade는 ChatGPT와 같은 인공 지능 도구도 도움이 될 수 있다고 말했습니다. 사이버 보안 기술 부족 격차. "힌트가 올바르게 제공되면 이러한 도구를 사용하면 더 간단한 작업 속도를 높일 수 있으며 제한된 리소스는 시간에 민감하고 우선순위가 높은 문제에 집중할 수 있습니다."
"이러한 대규모 언어 모델은 근본적인 A 패러다임 전환입니다." 예일 폭스(Yale Fox)는 IEEE 회원이자 Applied Science Group의 창립자이자 CEO입니다. "악성 AI 기반 공격에 대응하는 유일한 방법은 방어에 AI를 사용하는 것입니다. 데이터 센터 보안 관리자는 기존 사이버 보안 리소스를 강화하고 AI를 전문으로 하는 새로운 인력을 찾아야 합니다."
데이터 센터에서 ChatGPT 사용 위험
이는 위험을 고려하지 않고 ChatGPT를 사용할 때 발생할 수 있는 잠재적인 단점에 관한 빙산의 일각에 불과합니다.
ChatGPT 또는 Bing Chat에는 잘못된 정보를 제공하거나, 통계 및 인용문을 작성하거나, 특정 개념에 대해 완전히 잘못된 설명을 제공하는 데 매우 자신감을 갖는 몇 가지 잘 알려진 사례가 있습니다.
그것을 맹목적으로 믿는 사람들은 아주 나쁜 상황에 처하게 될 수도 있습니다.
Cloud Security Alliance의 Reavis는 "ChatGPT에서 개발한 스크립트를 사용하여 10,000개의 가상 머신에 대한 유지 관리를 수행하는데 스크립트에 오류가 있는 경우 심각한 문제가 발생하게 됩니다."라고 말했습니다.
ChatGPT를 사용하는 데이터 센터 보안 전문가의 또 다른 잠재적 위험은 데이터 침해입니다.
OpenAI가 ChatGPT를 무료로 만드는 이유는 사용자와의 상호작용을 통해 학습하기 때문입니다. 예를 들어 ChatGPT에 데이터 센터의 보안 상태를 분석하고 약점을 식별하도록 요청했다면 이제 ChatGPT에 모든 보안 취약점을 가르친 것입니다.
이제 업무 중심 소셜 네트워크 Fishbowl의 2월 설문 조사에 따르면 전문가의 43%가 직장에서 ChatGPT 또는 유사한 도구를 사용하는 것으로 나타났습니다. 이는 한 달 전의 27%에서 증가한 수치입니다. 만약 그렇게 한다면 70%는 상사에게 말하지 않을 것입니다. 따라서 잠재적인 보안 위험이 높습니다.
이것이 JPMorgan Chase, Amazon, Verizon, Accenture 및 기타 많은 회사가 직원의 도구 사용을 금지한 이유입니다.
이번 달에 출시된 OpenAI의 새로운 ChatGPT API를 통해 기업은 데이터를 비공개로 유지하고 교육에 사용하지 않도록 선택할 수 있지만 우발적인 유출이 발생하지 않을 것이라는 보장은 없습니다.
미래에 ChatGPT의 오픈 소스 버전이 출시되면 데이터 센터는 방화벽 뒤에서 로컬로 실행하여 외부인에게 노출될 가능성을 피할 수 있게 될 것입니다.
마지막으로 Insight의 저명한 엔지니어인 Carm Taglienti는 ChatGPT 스타일 기술을 사용하여 내부 데이터 센터를 보호하는 데 잠재적인 윤리적 위험이 있다고 말했습니다.
“이 모델은 우리가 인간으로서 의사소통하는 방식을 매우 잘 이해합니다.”라고 그는 말했습니다. 따라서 직원 커뮤니케이션에 액세스할 수 있는 ChatGPT 스타일 도구를 사용하면 잠재적인 위협을 나타내는 의도와 하위 텍스트를 찾아낼 수 있습니다.
"네트워크 해킹과 내부 환경 해킹을 방지하기 위해 열심히 노력하고 있습니다. 사람들이 물건을 가지고 문밖으로 나가기 때문에 침해가 많이 발생합니다"라고 그는 말했습니다.
그는 ChatGPT와 같은 것이 "조직에 매우 가치가 있을 수 있다"고 덧붙였습니다. "하지만 이제 우리는 사람들이 내 프로필을 작성하고 내가 하는 모든 일을 모니터링하는 윤리적 공간에 들어서고 있습니다."
이것은 데이터 센터가 준비되지 않은 마이너리티 리포트 스타일의 미래입니다.
위 내용은 ChatGPT는 데이터 센터 네트워크 보안에 어떤 영향을 미치나요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!