찾다
기술 주변기기일체 포함AI로 AI를 공격한다? 적대적 기계 학습의 위협과 방어

점점 더 많은 기업 조직에서 인공 지능(Artificial Intelligence, 약어로 AI) 및 기계 학습(Machine Learning, 약어로 ML) 프로젝트를 적용하기 시작했으며 이러한 프로젝트를 보호하는 것이 점점 더 중요해지고 있습니다. IBM과 Morning Consult가 공동으로 실시한 설문 조사에 따르면 조사 대상인 7,500개 이상의 다국적 기업 중 35%가 이미 AI를 사용하고 있으며 이는 지난해보다 13% 증가한 수치이며, 또 다른 42%는 타당성을 연구하고 있는 것으로 나타났습니다. 그러나 약 20%의 기업이 AI 시스템에서 데이터를 보호하는 데 어려움을 겪고 있으며 이로 인해 AI 도입 속도가 느려지고 있습니다.

AI 및 ML 시스템을 보호하는 것은 상당한 과제에 직면해 있으며, 그 중 일부는 AI 기술 자체로 인해 발생하지 않습니다. 예를 들어 AI와 ML 시스템에는 데이터가 필요하며, 데이터에 민감한 정보나 개인 정보가 포함되어 있으면 공격자의 표적이 됩니다. 머신러닝 모델은 사이버 공간 환경에서 잠재적인 적대적 공격 위험에 노출되어 있으며, 방어 시스템의 가장 약한 고리가 되어 시스템 전체의 보안을 위협할 수 있습니다.

적대적 머신러닝이란 무엇입니까

적대적 머신러닝은 머신러닝의 일종이 아니고, 공격자가 ML 시스템을 공격하기 위해 사용하는 일련의 수단입니다. 적대적 머신러닝은 ML 모델의 취약점과 특성을 활용하여 공격을 수행합니다. 예를 들어, 적대적 기계 학습을 사용하면 ML 거래 알고리즘이 잘못된 거래 결정을 내리고, 사기 행위를 감지하기 어렵게 만들고, 잘못된 운영 권장 사항을 제공하고, 감정 분석을 기반으로 보고서를 조작할 수 있습니다.

적대적 기계 학습 공격은 중독 공격, 회피 공격, 추출 공격, 추론 공격의 네 가지 방법으로 나뉩니다.

1.중독 공격

중독 공격에서는 공격자가 훈련 데이터 세트를 조작합니다. 예를 들어 의도적으로 데이터 세트를 편향하면 기계가 잘못된 방식으로 학습하게 됩니다. 예를 들어 집에는 AI 기반 보안 카메라가 설치되어 있습니다. 공격자는 매일 오전 3시에 당신의 집 근처를 지나가다가 그의 개가 잔디밭을 가로질러 달리게 하여 보안 시스템을 작동시킬 수 있습니다. 결국, 개 때문에 깨어나는 것을 피하기 위해 오전 3시에 울리는 알람을 끄게 됩니다. 그 개 산책자는 실제로 매일 오전 3시에 일어나는 일이 무해하다는 것을 보안 시스템에 알리기 위해 훈련 데이터를 제공하고 있습니다. 시스템이 오전 3시에 일어나는 모든 일을 무시하도록 훈련되면 공격자는 공격을 시작할 기회를 이용합니다.

2. 회피 공격

회피 공격에서는 모델이 훈련되었지만 공격자가 입력을 약간 변경하여 공격을 수행할 수 있습니다. 한 가지 예는 정지 신호입니다. 공격자가 양보 태그를 적용하면 시스템은 이를 정지 신호가 아닌 양보 신호로 해석합니다. 위의 개 산책 예에서 강도는 개 옷을 입고 집에 침입할 수 있습니다. 공격을 피하는 것은 기계의 착시 현상과 같습니다.

3. 추출 공격

추출 공격에서 공격자는 AI 시스템의 복사본을 획득합니다. 때로는 단순히 입력과 출력을 관찰하여 모델을 추출하고 모델을 가지고 놀면서 모델이 어떻게 반응하는지 확인할 수 있습니다. 모델을 여러 번 테스트할 수 있다면 모델이 동일한 방식으로 작동하도록 가르칠 수 있습니다.

예를 들어 2019년에는 Proofpoint의 이메일 보호 시스템에서 취약점이 노출되었으며, 생성된 이메일 헤더에 해당 이메일이 스팸일 가능성을 나타내는 점수가 첨부되었습니다. 공격자는 이러한 점수를 사용하여 모방 스팸 탐지 엔진을 구축하여 탐지를 회피하는 스팸을 생성할 수 있습니다.

회사가 상용 AI 제품을 사용하는 경우 공격자는 서비스를 구매하거나 사용하여 모델의 복사본을 얻을 수도 있습니다. 예를 들어 공격자가 바이러스 백신 엔진에 대해 악성 코드를 테스트하는 데 사용할 수 있는 플랫폼이 있습니다. 위의 개 산책 예에서 공격자는 쌍안경을 가져와 어떤 브랜드의 보안 카메라인지 확인한 다음 동일한 브랜드의 카메라를 구입하고 방어를 우회하는 방법을 알아낼 수 있습니다.

4. 추론 공격

추론 공격에서는 공격자가 시스템을 훈련하는 데 사용되는 데이터 세트를 파악한 다음 데이터의 취약점이나 편차를 이용하여 공격을 수행합니다. 훈련 데이터를 알아낼 수 있다면 상식이나 영리한 트릭을 사용하여 이를 활용할 수 있습니다. 여전히 개 산책의 예를 사용하여 공격자는 근처 행인과 차량에 대한 느낌을 얻기 위해 집을 모니터링할 수 있습니다. 매일 오전 3시에 공격자가 산책하는 사람을 발견하면 보안 시스템은 산책하는 사람을 무시하며, 이 취약점을 악용해 공격을 가할 수 있다.

미래에는 공격자가 지능형 기계 학습 기술을 사용하여 일반 기계 학습 애플리케이션을 공격할 수도 있습니다. 예를 들어, 새로운 유형의 AI 생성 대결 시스템이 있습니다. 이러한 시스템은 너무 사실적이어서 실제처럼 보이는 사진이나 비디오인 딥페이크 콘텐츠를 만드는 데 종종 사용됩니다. 공격자들은 온라인 사기에 이를 자주 사용하지만, 탐지할 수 없는 악성 코드를 생성하는 데에도 동일한 원칙이 사용될 수 있습니다.

생성적 적대 네트워크에서는 한쪽을 판별자, 다른 쪽을 생성자라고 하며 서로 공격합니다. 예를 들어 바이러스 백신 AI는 개체가 맬웨어인지 여부를 파악하려고 시도할 수 있습니다. 악성 코드를 생성하는 AI는 첫 번째 시스템이 포착할 수 없는 악성 코드를 생성하려고 시도할 수 있습니다. 두 시스템 간의 반복적인 대결을 통해 최종 결과는 탐지가 거의 불가능한 악성 코드가 될 수 있습니다.

적대적 기계 학습을 방어하는 방법

사이버 공간에서의 광범위한 대립으로 인해 머신러닝 적용은 심각한 문제에 직면하게 되었습니다. 적대적 머신러닝 공격의 위협을 방어하기 위해 보안 연구자들은 실제 애플리케이션에서 머신러닝 알고리즘의 성능을 향상시키기 위해 적대적 머신러닝에 대한 보안 연구를 시작했습니다. 견고성은 기계 학습 관련 알고리즘의 애플리케이션 보안을 보장합니다.

조사 회사인 Gartner는 기업에 보호해야 할 AI 및 ML 시스템이 있는 경우 표적 보안 조치를 취해야 한다고 권장합니다. 첫째, AI 모델의 무결성을 보호하기 위해 기업은 신뢰할 수 있는 AI 원칙을 채택하고 모델에 대한 검증 검사를 수행해야 합니다. 둘째, AI 훈련 데이터의 무결성을 보호하기 위해 데이터 중독 탐지 기술을 추가로 사용해야 합니다. , 많은 전통적인 보안 조치는 AI 시스템 보호에도 적용될 수 있습니다. 예를 들어, 데이터가 액세스되거나 파괴되지 않도록 보호하는 솔루션은 교육 데이터 세트가 변조되지 않도록 보호할 수도 있습니다.

MITRE는 표준화된 ATT&CK 적대 전략 및 기술 프레임워크로 유명합니다. 또한 현재 인공 지능 시스템을 위한 적대적 위협 환경으로 알려진 AI 시스템용 공격 프레임워크 세트를 만들었습니다. ATLAS)에서는 ML 시스템 공격의 12단계를 다루고 있습니다.

또한 일부 제조업체에서는 사용자가 AI 시스템을 보호하고 적대적인 기계 학습을 방어하는 데 도움이 되는 보안 도구를 출시하기 시작했습니다. Microsoft는 2021년 5월 AI 시스템의 보안 테스트를 위한 오픈 소스 자동화 도구인 Counterfit을 출시했습니다. Counterfit은 원래 단일 AI 모델용으로 특별히 작성된 공격 스크립트 라이브러리였으며 나중에 여러 AI 시스템에 대한 대규모 공격을 위한 일반 자동화 도구가 되었습니다. 이 도구는 MITRE의 ATLAS 공격 프레임워크에서 기술을 자동화하는 데 사용될 수 있지만, AI 개발 단계에서 취약점이 프로덕션에 적용되기 전에 조기에 발견하는 데에도 사용할 수 있습니다.

IBM에는 현재 Linux Foundation의 프로젝트인 Adversarial Robustness Toolbox라는 오픈 소스 적대적 기계 학습 방어 도구도 있습니다. 이 프로젝트는 널리 사용되는 모든 ML 프레임워크를 지원하며 회피, 중독, 추출 및 추론의 네 가지 범주로 분류된 39개의 공격 모듈을 포함합니다.

사이버 공간 방어에서 기계 학습이 겪을 수 있는 공격을 고려하여 기업은 특정 위협 시나리오에서 보안 속성을 과학적으로 평가할 목적으로 가능한 한 빨리 기계 학습 공격자 모델을 도입해야 합니다. 동시에 조직은 적대적인 기계 학습 알고리즘이 테스트 단계에서 회피 공격을 시작하고 훈련 단계에서 중독 공격을 시작하며 전체 기계 학습 단계에서 개인 정보 도용을 실행하는 일반적인 방법을 완전히 이해하고 이를 설계 및 배포해야 합니다. 머신러닝 모델의 보안을 효과적으로 강화하는 방어 방법입니다.

참조 링크:

https://www.csoonline.com/article/3664748/adversarial-machine-learning-explained-how-attackers-disrupt-ai-and-ml-systems.html

위 내용은 AI로 AI를 공격한다? 적대적 기계 학습의 위협과 방어의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
이 기사는 51CTO.COM에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제
Microsoft Work Trend Index 2025는 작업장 용량 변형을 보여줍니다Microsoft Work Trend Index 2025는 작업장 용량 변형을 보여줍니다Apr 24, 2025 am 11:19 AM

AI의 빠른 통합으로 악화 된 직장의 급성장 용량 위기는 점진적인 조정을 넘어 전략적 변화를 요구합니다. 이것은 WTI의 발견에 의해 강조됩니다. 직원의 68%가 작업량으로 어려움을 겪고 BUR로 이어

AI가 이해할 수 있습니까? 중국의 객실 논쟁은 아니오라고 말하지만 맞습니까?AI가 이해할 수 있습니까? 중국의 객실 논쟁은 아니오라고 말하지만 맞습니까?Apr 24, 2025 am 11:18 AM

John Searle의 중국 방 주장 : AI 이해에 대한 도전 Searle의 사고 실험은 인공 지능이 진정으로 언어를 이해할 수 있는지 또는 진정한 의식을 가질 수 있는지 직접 의문을 제기합니다. Chines를 무시하는 사람을 상상해보십시오

중국의 '스마트'AI 조수는 Microsoft Recall의 개인 정보 결함을 반향합니다중국의 '스마트'AI 조수는 Microsoft Recall의 개인 정보 결함을 반향합니다Apr 24, 2025 am 11:17 AM

중국의 기술 거대 기업은 서부에 비해 AI 개발 과정에서 다른 과정을 차트하고 있습니다. 기술 벤치 마크 및 API 통합에만 초점을 맞추는 대신 "스크린 인식"AI 비서 우선 순위를 정합니다.

Docker는 AI 모델 및 MCP 도구에 친숙한 컨테이너 워크 플로를 제공합니다.Docker는 AI 모델 및 MCP 도구에 친숙한 컨테이너 워크 플로를 제공합니다.Apr 24, 2025 am 11:16 AM

MCP : AI 시스템이 외부 도구에 액세스 할 수 있도록 권한을 부여합니다 MCP (Model Context Protocol)를 사용하면 AI 애플리케이션이 표준화 된 인터페이스를 통해 외부 도구 및 데이터 소스와 상호 작용할 수 있습니다. MCP를 통해 MCP는 인류에 의해 개발되고 주요 AI 제공 업체가 지원하는 언어 모델 및 에이전트가 사용 가능한 도구를 발견하고 적절한 매개 변수로 전화 할 수 있습니다. 그러나 환경 충돌, 보안 취약점 및 일관되지 않은 교차 ​​플랫폼 동작을 포함하여 MCP 서버 구현에는 몇 가지 과제가 있습니다. Forbes 기사 "Anthropic의 모델 컨텍스트 프로토콜은 AI 에이전트 개발의 큰 단계입니다."저자 : Janakiram MSVDocker는 컨테이너화를 통해 이러한 문제를 해결합니다. Docker Hub Infrastructure를 구축했습니다

6 억 달러 규모의 스타트 업을 구축하기 위해 6 개의 AI Street-Smart 전략 사용6 억 달러 규모의 스타트 업을 구축하기 위해 6 개의 AI Street-Smart 전략 사용Apr 24, 2025 am 11:15 AM

최첨단 기술을 활용하고 비즈니스 통제력을 발휘하여 통제력을 유지하면서 수익성이 높고 확장 가능한 회사를 창출하는 비전 기업가가 사용하는 6 가지 전략. 이 안내서는

Google 사진 업데이트 모든 사진에 대한 멋진 Ultra HDR 잠금 해제Google 사진 업데이트 모든 사진에 대한 멋진 Ultra HDR 잠금 해제Apr 24, 2025 am 11:14 AM

Google 사진의 새로운 Ultra HDR 도구 : 이미지 향상을위한 게임 체인저 Google Photos는 강력한 Ultra HDR 변환 도구를 도입하여 표준 사진을 활기차고 높은 동기 범위 이미지로 변환했습니다. 이 향상은 사진가 a

Descope는 AI 에이전트 통합을위한 인증 프레임 워크를 구축합니다Descope는 AI 에이전트 통합을위한 인증 프레임 워크를 구축합니다Apr 24, 2025 am 11:13 AM

기술 아키텍처는 새로운 인증 문제를 해결합니다 에이전트 Identity Hub는 문제를 해결합니다. 많은 조직이 AI 에이전트 구현을 시작한 후에 만 ​​기존 인증 방법이 기계 용으로 설계되지 않았다는 것을 발견 한 후에 만 ​​발견합니다.

Google Cloud 다음 2025 및 현대 작업의 연결된 미래Google Cloud 다음 2025 및 현대 작업의 연결된 미래Apr 24, 2025 am 11:12 AM

(참고 : Google은 회사 인 Moor Insights & Strategy의 자문 고객입니다.) AI : 실험에서 Enterprise Foundation까지 Google Cloud Next 2025는 실험 기능에서 엔터프라이즈 기술의 핵심 구성 요소까지 AI의 진화를 보여주었습니다.

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

Dreamweaver Mac版

Dreamweaver Mac版

시각적 웹 개발 도구

VSCode Windows 64비트 다운로드

VSCode Windows 64비트 다운로드

Microsoft에서 출시한 강력한 무료 IDE 편집기

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

안전한 시험 브라우저

안전한 시험 브라우저

안전한 시험 브라우저는 온라인 시험을 안전하게 치르기 위한 보안 브라우저 환경입니다. 이 소프트웨어는 모든 컴퓨터를 안전한 워크스테이션으로 바꿔줍니다. 이는 모든 유틸리티에 대한 액세스를 제어하고 학생들이 승인되지 않은 리소스를 사용하는 것을 방지합니다.

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구