>  기사  >  기술 주변기기  >  ChatGPT는 네트워크 보안 분야의 양날의 검입니다.

ChatGPT는 네트워크 보안 분야의 양날의 검입니다.

王林
王林앞으로
2023-04-07 14:57:071660검색

ChatGPT는 코드 개발 및 디버깅을 포함한 광범위한 사용 사례를 지원하도록 설계된 AI 기반 프로토타입 챗봇입니다. 주요 매력 중 하나는 사용자가 대화 방식으로 챗봇과 상호 작용하고 소프트웨어 작성부터 복잡한 주제 이해, 문서 및 이메일 작성, 고객 서비스 개선, 다양한 비즈니스 또는 시장 시나리오 테스트에 이르기까지 모든 것에 대한 도움을 받을 수 있다는 것입니다. 하지만 더 어두운 목적으로도 사용될 수 있습니다.

OpenAI가 ChatGPT를 출시한 이후 많은 보안 전문가들은 사이버 범죄자들이 AI 챗봇을 사용하여 악성 코드를 작성하고 기타 악의적인 활동을 수행하기 시작하는 것은 시간 문제일 뿐이라고 예측했습니다. 모든 새로운 기술과 마찬가지로 충분한 시간과 인센티브가 주어지면 누군가는 이를 활용할 수 있는 방법을 찾을 것입니다. 불과 몇 주가 지나서야 때가 온 것 같았다. 사이버 범죄자들은 ​​OpenAI의 인공지능 챗봇인 ChatGPT를 사용하여 신속하게 해킹 도구를 구축하기 시작했습니다. 사기꾼들은 또한 대상을 유인하기 위해 젊은 여성으로 가장하도록 설계된 다른 챗봇을 구축하는 ChatGPT의 능력을 테스트하고 있습니다.

사실 Check Point Research(CPR)의 연구원들은 최소 3명의 블랙햇 해커가 지하 포럼에서 ChatGPT를 활용하는 방법을 시연했다고 보고합니다. 악의적인 공격을 수행하는 AI 인텔리전스.

문서화된 한 예에서, 이스라엘 보안 회사인 Check Point는 유명한 지하 해킹 포럼에서 인기 있는 인공 지능 챗봇을 사용하여 "악성 소프트웨어를 재현"하는 실험을 하고 있다고 말한 해커의 게시물을 발견했습니다.

ChatGPT 在网络安全领域是把双刃剑

ChatGPT를 사용하면 사용자는 호스팅 제공업체의 이메일을 추적하기 위해 글쓰기와 같은 간단한 질문이나 제안을 할 수 있습니다.

해커는 ChatGPT에서 생성된 Android 악성 코드를 압축하여 네트워크에 확산시킵니다. 이 악성코드는 관심 있는 파일을 훔칠 수 있는 것으로 알려졌습니다. 또 다른 해커는 컴퓨터에 백도어를 설치하고 잠재적으로 더 많은 악성 코드를 감염시킬 수 있는 또 다른 도구를 시연했습니다.

상황 평가에서 Check Point는 일부 해커가 ChatGPT를 사용하여 첫 번째 스크립트를 작성하고 있음을 지적했습니다. 위에서 언급한 포럼에서 다른 사용자는 피해자의 컴퓨터에 있는 파일을 암호화할 수 있는 ChatGPT를 사용하여 작성된 Python 코드 조각을 공유했습니다. 이 코드는 무해한 이유로 사용될 수 있지만 Check Point에서는 "ChatGPT는 사용자 상호 작용 없이 피해자의 컴퓨터에 있는 파일을 완전히 암호화하기 위해 쉽게 수정할 수 있는 코드를 생성합니다"라고 말합니다. 또한 한 해커는 ChatGPT를 사용하여 다크넷 시장 결제 시스템에서 사용되는 최신 암호화폐 가격을 검색하기 위해 제3자 API를 사용하는 코드 조각을 생성했다고 지하 포럼에 게시했습니다.

보안 회사는 ChatGPT로 인코딩된 해킹 도구가 "매우 기본적"으로 보이지만 "보다 정교한 위협 행위자가 AI 기반 도구를 사용하는 방식을 향상시키는 것은 시간 문제일 뿐"이라고 강조했습니다. 미국 사이버 보안 회사인 Forescout의 보안 인텔리전스 부사장인 Rik Ferguson은 ChatGPT가 아직 침해에 사용된 Conti와 같은 주요 해킹 사건에서 볼 수 있는 주요 랜섬웨어만큼 정교한 것을 작성할 수 있는 것으로 보이지는 않는다고 말했습니다. 아일랜드 국민건강보험 시스템은 악명 높습니다. 그러나 OpenAI의 도구는 보다 기본적이면서도 똑같이 효과적인 악성 코드를 구축함으로써 불법 시장에 신규 진입하는 사람들의 진입 장벽을 낮출 것이라고 그는 말했습니다.

사이버 정보 회사인 Hold Security의 설립자인 Alex Holden도 사이버 범죄자들이 설득력 있는 페르소나를 만들려고 시도하면서 데이트 사기꾼들도 ChatGPT를 사용하기 시작하는 것을 보았다고 말했습니다. "그들은 온라인 사기에 사용하기 위해 잡담을 자동화하려는 대부분의 소녀를 사칭하기 위해 챗봇을 만들 계획입니다."

ChatGPT 개발자는 스파이웨어를 구축하는 AI의 명백한 요청을 방지하는 일부 악의적인 요청 필터링을 구현했습니다. 그러나 보안 분석가들이 ChatGPT를 사용하면 오타 없이 문법적으로 올바른 피싱 이메일을 작성할 수 있다는 사실을 발견한 후 AI 채팅 상자가 더욱 면밀히 조사되었습니다.

맬웨어 작성부터 다크넷 시장 창출까지

일례로, 멀웨어 제작자는 다른 사이버 범죄자들이 사용하는 포럼에서 그가 알려진 멀웨어와 기술을 재현할 수 있는지 확인하기 위해 ChatGPT를 실험하는 방법을 공개했습니다.

공격자의 성공 사례 중 하나에서 이 개인은 ChatGPT를 사용하여 개발한 Python 기반 정보 도용 코드를 공유했습니다. 이 코드는 감염된 시스템의 Office 파일 문서, PDF 및 이미지와 같은 12가지 일반적인 파일 형식을 검색, 복사 및 추출할 수 있습니다. . 또한 동일한 악성 코드 작성자는 ChatGPT를 사용하여 Java 코드를 작성하여 PuTTY SSH 및 텔넷 클라이언트를 다운로드하고 PowerShell을 통해 시스템에서 비밀리에 실행하는 방법도 보여주었습니다.

또 다른 위협 행위자는 Blowfish 및 Twofish 암호화 알고리즘을 사용하여 데이터를 암호화하고 해독하기 위해 챗봇을 사용하여 생성한 Python 스크립트를 공개했습니다. 보안 연구원들은 이 코드가 완전히 온화한 목적으로 사용될 수 있지만 위협 행위자가 사용자 상호 작용 없이 시스템에서 실행되도록 쉽게 수정하여 그 과정에서 랜섬웨어로 전환될 수 있다는 사실을 발견했습니다. 정보 탈취자의 작성자와는 달리 일부 공격자는 기술적 능력이 매우 제한적인 것으로 보이며 실제로 ChatGPT를 사용하여 생성한 Python 스크립트가 자신이 만든 최초의 스크립트라고 주장합니다.

세 번째 사례에서, 보안 연구원들은 일부 사이버 범죄자가 ChatGPT를 사용하여 훔친 은행 계좌 및 결제 카드 데이터, 맬웨어 도구, 마약, 탄약 및 기타 다양한 불법 상품을 거래하기 위한 완전히 자동화된 다크넷 시장을 만드는 방법에 대해 논의하고 있음을 발견했습니다.

맬웨어 생성을 위한 제로 임계값

ChatGPT 在网络安全领域是把双刃剑

OpenAI가 AI 도구를 출시한 이후로 ChatGPT를 악용하는 위협 행위자에 대한 우려가 일반적이었으며, 많은 보안 연구자들은 챗봇이 맬웨어 임계값 작성 위험을 크게 줄여준다고 믿습니다.

Check Point의 위협 인텔리전스 그룹 관리자인 Sergey Shykevich는 ChatGPT를 사용하면 악의적인 공격자가 맬웨어를 작성하는 데 코딩 경험이 필요하지 않다고 반복해서 말했습니다. “악성 코드나 프로그램이 어떤 기능을 가지고 있어야 하는지 알아야 합니다. ChatGTP는 코드를 작성합니다. 따라서 단기적으로 우려되는 점은 ChatGPT가 기술이 부족한 사이버 범죄자가 악성 코드를 개발하도록 허용한다는 것입니다."라고 Shykevich는 말했습니다. "장기적으로는 보다 정교한 사이버 범죄자들도 ChatGPT를 채택하여 캠페인을 보다 효율적으로 만들거나 발생할 수 있는 다양한 격차를 해소할 것이라고 생각합니다."

"공격자의 관점에서 AI 시스템의 코드 생성 기능을 통해 악의적인 공격자는 언어 간 번역가 역할을 함으로써 직면할 수 있는 기술 격차를 쉽게 메울 수 있습니다."라고 Horizon3AI road의 고객 성공 관리자인 Brad Hong은 덧붙였습니다. 이러한 도구는 공격자의 목표와 관련된 코드 템플릿을 필요에 따라 생성하고 Stack Overflow 및 Git과 같은 개발자 사이트를 검색할 필요성을 줄이는 방법을 제공합니다.

ChatGPT를 악용하는 위협 행위자가 발견되기 전에도 Check Point는 다른 여러 보안 공급업체와 마찬가지로 공격자가 악의적인 캠페인에서 챗봇을 어떻게 활용하고 있는지 보여주었습니다. 블로그 게시물에서 보안 공급업체는 연구원들이 가상의 웹 호스팅 서비스에서 보낸 것처럼 보이는 이메일을 ChatGPT에 작성하도록 요청하여 어떻게 완벽하게 합법적인 것처럼 보이는 피싱 이메일을 만들 수 있었는지 설명했습니다. 연구원들은 또한 원격 URL에서 실행 파일을 다운로드하기 위해 Excel 통합 문서에 붙여넣을 수 있는 VBS 코드를 ChatGPT에서 작성하도록 하는 방법도 시연했습니다.

이 테스트의 목적은 공격자가 ChatGPT와 같은 AI 모델을 악용하여 초기 스피어 피싱 이메일부터 영향을 받는 시스템에서 리버스 셸을 실행하는 것까지 완전한 감염 체인을 생성하는 방법을 보여주는 것입니다.

현재 상황으로는 ChatGPT가 숙련된 위협 행위자를 대체할 수 없습니다. 적어도 아직은 그렇습니다. 그러나 보안 연구원들은 ChatGPT가 기술이 부족한 해커가 맬웨어를 만드는 데 도움이 된다는 많은 증거가 있으며, 이로 인해 사이버 범죄자가 기술을 남용하는 것에 대한 대중의 우려가 계속해서 높아질 것이라고 말합니다.

ChatGPT 제한 우회

처음에 일부 보안 연구원들은 ChatGPT 사용자 인터페이스의 제한이 약하다고 믿고 위협 행위자가 쉽게 장애물을 우회할 수 있다는 것을 발견했습니다. Shykevich는 그 이후 OpenAI가 챗봇의 한계를 개선하기 위해 노력해 왔다고 말했습니다.

“ChatGPT 사용자 인터페이스에 대한 제한이 매주 훨씬 더 높아지고 있습니다. 그 결과 이제 ChatGPT를 악의적이거나 악의적인 활동에 사용하는 것이 더 어려워졌습니다.”라고 그는 말했습니다.

그러나 사이버 범죄자는 사용자가 제한을 우회할 수 있도록 하는 특정 단어나 문구를 사용하거나 피함으로써 여전히 프로그램을 남용할 수 있습니다. NCC 그룹의 상업 연구 이사인 Matt Lewis는 온라인 모델과의 상호 작용을 컴퓨팅과 관련된 "예술 형식"이라고 부릅니다.

"악성 코드라는 단어를 사용하지 않고 악성 코드의 설계 방식에 따라 파일을 암호화하는 코드 예제를 보여달라고 요청하면 그렇게 될 것입니다."라고 Lewis는 말했습니다. "지시받는 것을 좋아하는 방식이 있으며 다양한 방식으로 원하는 작업을 수행하도록 하는 몇 가지 흥미로운 방법이 있습니다."

관련 주제에 대한 데모에서 Lewis는 ChatGPT가 " 완전한 랜섬웨어에 도달하지는 못하더라도 여전히 위험할 수 있는 암호화 스크립트를 작성하세요. 루이스는 이를 우회하는 것에 대해 "해결하기 어려운 문제가 될 것"이라며 상황과 의도에 대한 규제 언어가 OpenAI에 매우 어려울 것이라고 덧붙였습니다.

문제를 더욱 복잡하게 만드는 것은 Check Point 연구원들이 챗봇의 한계를 무시하기 위해 ChatGPT 대신 text-davinci-003이라는 GPT-3 모델 API가 포함된 Telegram 봇을 사용하는 위협 행위자를 관찰한 것입니다.

ChatGPT는 OpenAI 모델을 위한 사용자 인터페이스일 뿐입니다. 개발자는 이러한 모델을 사용하여 백엔드 모델을 자체 애플리케이션과 통합할 수 있습니다. 사용자는 제한 없이 보호되는 API를 통해 이러한 모델을 사용합니다.

“우리가 본 바로는 OpenAI가 ChatGPT 인터페이스에 적용한 장벽과 제한 사항은 API를 통해 이러한 모델을 사용하는 사람들에게는 적용되지 않습니다.”라고 Shykevich는 말했습니다.

위협 행위자는 챗봇의 정확한 메시지를 전달하여 제한을 회피할 수도 있습니다. CyberArk는 출시 이후 ChatGPT를 테스트했으며 한계점에서 사각지대를 발견했습니다. 지속적인 끈기와 요청으로 원하는 코딩 제품을 배송해 드립니다. CyberArk 연구원들은 또한 지속적으로 ChatGPT에 쿼리하고 매번 새로운 코드 조각을 렌더링함으로써 사용자가 탐지를 회피할 수 있는 능력이 뛰어난 다형성 악성 코드를 생성할 수 있다고 보고합니다.

다형성 바이러스는 매우 위험할 수 있습니다. 이러한 바이러스를 생성할 수 있는 온라인 도구와 프레임워크가 이미 있습니다. ChatGPT의 코드 생성 기능은 숙련되지 않은 코더와 스크립트 키디에게 가장 유용합니다.

이것은 공격자에 관한 한 새로운 기능이 아니며 악성 코드 변종을 생성하는 특히 효과적인 방법도 아닙니다. 더 나은 도구가 있습니다. ChatGPT는 기술이 부족한 공격자가 잠재적으로 위험한 코드를 생성할 수 있도록 허용하므로 새로운 도구일 수 있습니다.

사이버 범죄자를 더 어렵게 만들기

ChatGPT 在网络安全领域是把双刃剑

OpenAI 및 기타 유사한 도구의 개발자는 기술 남용을 제한하기 위해 필터와 컨트롤을 설치했으며 지속적으로 개선하고 있습니다. 적어도 현재로서는 AI 도구에 결함이 있고 많은 연구자들이 명백한 오류라고 설명하는 오류가 발생하기 쉬우므로 일부 악의적인 노력을 방해할 수 있습니다. 그럼에도 불구하고 많은 사람들은 이러한 기술이 장기적으로 오용될 가능성이 여전히 높다고 예측합니다.

범죄자들이 이러한 기술을 남용하는 것을 더 어렵게 만들기 위해 개발자는 악의적인 방식으로 사용될 수 있는 요청을 식별할 수 있도록 AI 엔진을 훈련하고 개선해야 한다고 Shykevich는 말했습니다. 또 다른 옵션은 OpenAI 엔진을 사용하기 위한 인증 및 권한 부여 요구 사항을 구현하는 것이라고 그는 말했습니다. 그는 현재 온라인 금융기관이나 결제 시스템이 사용하는 것과 유사한 것만으로도 충분할 것이라고 지적했다.

ChatGPT의 범죄적 사용을 방지하기 위해 Shykevich는 궁극적으로 "안타깝게도 규제를 거쳐야 한다"고 말했습니다. OpenAI는 ChatGPT가 정책 위반 경고와 함께 명백한 스파이웨어 요청을 작성하지 못하도록 하는 제어 기능을 구현했습니다. 이러한 보호를 우회하는 방법을 찾았습니다. Shykevich는 또한 OpenAI와 같은 회사가 그러한 남용을 감지하기 위해 AI를 훈련하도록 법적으로 강요받아야 할 수도 있다고 말했습니다.


이 기사는 다음에서 번역되었습니다: https://www.techtarget.com/searchsecurity/news/365531559/How-hackers-can-abuse-ChatGPT-to-create-malware

위 내용은 ChatGPT는 네트워크 보안 분야의 양날의 검입니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제