찾다
기술 주변기기일체 포함연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

번역가 | Li Rui

리뷰어 | Sun Shujuan​

머신러닝이 사람들이 매일 사용하는 많은 애플리케이션의 일부가 되면서 사람들은 머신러닝의 보안과 취약점을 식별하고 해결하는 방법에 점점 더 많은 관심을 기울이고 있습니다. 모델. 개인 정보 보호에 대한 위협.

연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

그러나 다양한 기계 학습 패러다임이 직면하는 보안 위협은 다양하며 기계 학습 보안의 일부 영역은 아직 연구가 부족합니다. 특히 강화학습 알고리즘의 보안은 최근 몇 년간 큰 관심을 받지 못했습니다.

캐나다 McGill 대학교, MILA(Machine Learning Laboratory) 및 워털루 대학교의 연구원들은 심층 강화 학습 알고리즘의 개인 정보 보호 위협에 초점을 맞춘 새로운 연구를 수행했습니다. 연구원들은 멤버십 추론 공격에 대한 강화 학습 모델의 취약성을 테스트하기 위한 프레임워크를 제안합니다.

연구 결과에 따르면 공격자는 심층 강화 학습(RL) 시스템을 효과적으로 공격할 수 있으며 모델 훈련에 사용되는 민감한 정보를 얻을 수 있습니다. 강화 학습 기술이 이제 산업 및 소비자 응용 분야로 진출하고 있기 때문에 그들의 연구 결과는 중요합니다.

멤버십 추론 공격

연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

멤버십 추론 공격은 대상 기계 학습 모델의 동작을 관찰하고 이를 훈련하는 데 사용되는 예제를 예측합니다.

모든 기계 학습 모델은 일련의 예제를 통해 학습됩니다. 경우에 따라 훈련 예시에는 건강, 금융 데이터 또는 기타 개인 식별 정보와 같은 민감한 정보가 포함됩니다.

멤버 추론 공격은 기계 학습 모델이 훈련 세트 데이터를 유출하도록 시도하는 일련의 기술입니다. 적대적인 예(기계 학습에 대한 더 잘 알려진 공격 유형)는 기계 학습 모델의 동작을 변경하는 데 중점을 두고 보안 위협으로 간주되는 반면, 멤버십 추론 공격은 모델에서 정보를 추출하는 데 중점을 두고 개인 정보 보호 위협에 더 가깝습니다.

멤버십 추론 공격은 모델이 레이블이 지정된 예제에 대해 훈련되는 지도 기계 학습 알고리즘에서 잘 연구되었습니다.

지도 학습과 달리 심층 강화 학습 시스템은 레이블이 있는 예제를 사용하지 않습니다. 강화 학습(RL) 에이전트는 환경과의 상호 작용을 통해 보상이나 페널티를 받습니다. 이러한 상호작용과 강화 신호를 통해 점차적으로 행동을 학습하고 발전시킵니다.

논문의 저자는 서면 논평에서 "강화 학습의 보상이 반드시 레이블을 나타내는 것은 아닙니다. 따라서 다른 학습 패러다임에서 멤버십 추론 공격 설계에 자주 사용되는 예측 레이블 역할을 할 수 없습니다."라고 말했습니다. 연구 연구원들은 논문에서 "현재 심층 강화 학습 에이전트를 훈련하는 데 직접 사용되는 데이터 구성원의 잠재적 유출에 대한 연구는 없습니다"라고 썼습니다. 그리고 이러한 연구가 부족한 이유 중 하나는 강화 학습입니다. 현실 세계에서는 효율성이 떨어집니다.

연구 논문의 저자들은 “Alpha Go, Alpha Fold, GT Sophy 등 심층 강화 학습 분야에서 상당한 진전이 있었음에도 불구하고 심층 강화 학습 모델은 아직 산업 규모에서 널리 채택되지 않고 있습니다. 반면, 데이터 프라이버시는 매우 널리 사용되는 연구 분야입니다. 실제 산업 응용 분야에서 심층 강화 학습 모델이 부족하여 이 기본적이고 중요한 연구 분야에 대한 연구가 크게 지연되어 강화 학습 시스템에 대한 공격에 대한 연구가 부족합니다. ”

실제 시나리오에서 산업 규모로 강화 학습 알고리즘을 적용해야 할 필요성이 증가함에 따라, 적대적 및 알고리즘 관점에서 강화 학습 알고리즘의 개인 정보 보호 측면을 다루는 프레임워크에 대한 초점과 엄격한 요구 사항이 점점 더 분명해지고 있습니다. 그리고 관련성이 있습니다.

심층 강화 학습에서 회원 추론의 어려움

연구 논문의 저자는 다음과 같이 말했습니다. “1세대 개인 정보 보호 심층 강화 학습 알고리즘을 개발하려는 우리의 노력을 통해 우리는 개인 정보 보호로부터 다음과 같은 사실을 깨닫게 되었습니다. 관점에서 보면 전통적인 기계 학습 알고리즘과 강화 학습 알고리즘 사이에는 근본적인 구조적 차이가 있습니다.

연구원들은 더 중요한 것은 심층 강화 학습과 다른 학습 패러다임 사이의 근본적인 차이점이 잠재적인 개인 정보 보호 결과를 고려할 때 심층 강화 학습 모델을 실제 응용 프로그램에 배포하는 데 심각한 어려움을 안겨준다는 사실을 발견했습니다.

이러한 이해를 바탕으로 우리에게 가장 큰 질문은: 심층 강화 학습 알고리즘이 멤버십 추론 공격과 같은 개인 정보 보호 공격에 얼마나 취약한가? 기존 멤버십 추론 공격 공격 모델은 다른 학습 패러다임을 위해 특별히 설계되었으며, 전 세계적으로 배포될 때 개인 정보 보호에 대한 심각한 영향을 고려할 때 이러한 공격에 대한 심층 강화 학습 알고리즘의 취약성은 거의 알려져 있지 않습니다. ”

훈련 중에 강화 학습 모델은 각 단계가 일련의 행동과 상태로 구성된 여러 단계를 거칩니다. 따라서 강화학습을 위한 성공적인 멤버십 추론 공격 알고리즘은 모델을 훈련하는 데 사용되는 데이터 포인트와 궤적을 학습해야 합니다. 이는 강화 학습 시스템을 위한 멤버십 추론 알고리즘을 설계하는 것을 더 어렵게 만드는 한편, 그러한 공격에 대한 강화 학습 모델의 견고성을 평가하기도 어렵게 만듭니다.

저자들은 “멤버십 추론 공격(MIA)은 훈련과 예측에 사용되는 데이터 포인트의 순차적이고 시간 의존적 특성 때문에 다른 유형의 기계 학습에 비해 강화 학습이 어렵습니다. -데이터 포인트 간의 많은 관계는 다른 학습 패러다임과 근본적으로 다릅니다.”

강화 학습과 다른 기계 학습 패러다임의 근본적인 차이점으로 인해 심층 강화 학습을 위한 구성원 추론 공격을 설계하고 평가하기가 어렵습니다. 방법.

강화 학습 시스템에 대한 멤버십 추론 공격 설계

연구에서 연구원들은 데이터 수집과 모델 훈련 프로세스가 분리된 비정책 강화 학습 알고리즘에 중점을 두었습니다. 강화 학습은 "재생 버퍼"를 사용하여 입력 궤적의 상관 관계를 해제하고 강화 학습 에이전트가 동일한 데이터 세트에서 다양한 궤적을 탐색할 수 있도록 합니다.

비정책 강화 학습은 훈련 데이터가 이미 존재하고 강화 학습 모델을 훈련하는 기계 학습 팀에 제공되는 많은 실제 응용 프로그램에 특히 중요합니다. 비정책 강화 학습은 멤버십 추론 공격 모델을 만드는 데에도 중요합니다.

연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

비정책 강화학습은 "재생 버퍼"를 사용하여 모델 훈련 중에 이전에 수집된 데이터를 재사용합니다.

저자는 “진정한 비정책 강화학습에서는 탐색 단계와 활용 단계가 분리되어 있습니다. 따라서 목표 전략은 훈련 궤적에 영향을 미치지 않습니다. 이 설정은 공격자가 목표 모델의 내부 구조나 사용된 방법을 모르기 때문에 블랙박스 환경에서 구성원 추론 공격 프레임워크를 설계할 때 특히 적합합니다. 훈련 궤적을 수집합니다.”

블랙박스 멤버십 추론 공격에서 공격자는 훈련된 강화 학습 모델의 동작만 관찰할 수 있습니다. 이 특별한 경우, 공격자는 대상 모델이 일련의 개인 데이터에서 생성된 궤적에 대해 훈련되었다고 가정합니다. 이것이 비정책 강화 학습의 작동 방식입니다.

연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

본 연구에서 연구진은 제어 작업에서 탁월한 성능을 보이는 고급 비정책 강화학습 알고리즘인 'Batch Constrained Deep Q Learning(BCQ)'을 선택했습니다. 그러나 그들은 멤버십 추론 공격 기법이 다른 비정책 강화학습 모델로 확장될 수 있음을 보여줍니다.

공격자가 멤버십 추론 공격을 수행할 수 있는 한 가지 방법은 "섀도우 모델"을 개발하는 것입니다. 이는 대상 모델의 훈련 데이터와 동일한 분포의 데이터 및 다른 곳의 혼합 데이터에 대해 훈련된 분류기 기계 학습 모델입니다. 훈련 후 섀도우 모델은 대상 기계 학습 모델의 훈련 세트에 속하는 데이터 포인트와 모델이 이전에 보지 못한 새로운 데이터를 구별할 수 있습니다. 강화 학습 에이전트를 위한 그림자 모델을 생성하는 것은 대상 모델 훈련의 순차적 특성으로 인해 까다롭습니다. 연구진은 여러 단계를 통해 이를 달성했습니다.

먼저 강화 학습 모델 트레이너에게 새로운 비공개 데이터 궤적 세트를 제공하고 대상 모델에서 생성된 궤적을 관찰합니다. 그런 다음 공격 트레이너는 훈련 및 출력 궤적을 사용하여 기계 학습 분류기를 훈련하여 대상 강화 학습 모델 훈련에 사용되는 입력 궤적을 감지합니다. 마지막으로 분류기에는 훈련 멤버 또는 새로운 데이터 예제로 분류할 수 있는 새로운 궤적이 제공됩니다.

연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

강화 학습 모델에 대한 멤버십 추론 공격을 위한 그림자 모델 훈련

강화 학습 시스템에 대한 멤버십 추론 공격 테스트

연구원들은 다양한 궤적 길이, 단일 대 단일 대를 포함한 다양한 모드에서 멤버십 추론 공격을 테스트했습니다. 다중 궤적, 상관된 궤적과 상관되지 않은 궤적.

연구원들은 논문에서 다음과 같이 밝혔습니다. “결과는 우리가 제안한 공격 프레임워크가 강화 학습 모델 훈련 데이터 포인트를 추론하는 데 매우 효과적이라는 것을 보여줍니다... 얻은 결과는 심층 강화 학습을 사용할 때 높은 확률이 있음을 보여줍니다. Privacy Risk ”

결과에 따르면 다중 궤적을 사용한 공격은 단일 궤적을 사용한 공격보다 효과적이며, 궤적이 길어지고 상호 연관될수록 공격의 정확도가 높아지는 것으로 나타났습니다.

저자는 “자연스러운 설정은 물론 개별 모델이며, 여기서 공격자는 대상 강화 학습 정책을 훈련하는 데 사용되는 훈련 세트에서 특정 개인의 존재를 식별하는 데 관심이 있습니다(강화에서 전체 궤적을 설정). 그러나 집단 모드에서 MIA(멤버십 추론 공격)의 더 나은 성능은 훈련 정책의 특징에 의해 포착된 시간적 상관 관계 외에도 공격자가 훈련 궤적 간의 상호 상관 관계도 활용할 수 있음을 보여줍니다.

연구는 또한 공격자가 훈련 궤적과 궤적 내의 시간 상관 관계 사이의 상호 상관 관계를 활용하기 위해 더 복잡한 학습 아키텍처와 더 정교한 하이퍼 매개 변수 조정이 필요하다는 것을 의미한다고 연구원들은 말했습니다.

연구원들은 이렇게 말했습니다. “이러한 다양한 공격 모드를 이해하면 공격이 발생할 수 있는 다양한 각도와 개인 정보 보호에 미치는 영향을 더 잘 이해할 수 있으므로 데이터 보안 및 개인 정보 보호에 미치는 영향을 더 깊이 이해할 수 있습니다.

강화 학습 시스템에 대한 실제 멤버십 추론 공격

연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.

연구원들은 Open AIGym 및 MuJoCo 물리학을 기반으로 세 가지 작업에 대해 훈련된 강화 학습 모델에 대한 공격을 테스트했습니다. 엔진.

연구원들은 “현재 우리의 실험은 Hopper, Half-Cheetah 및 Ant의 세 가지 고차원 모션 작업을 다루고 있습니다. 이 작업은 모두 로봇 시뮬레이션 작업이며 주로 실제 로봇 학습 작업으로 실험의 확장을 촉진합니다. ”

애플리케이션 구성원이 공격을 추론할 수 있는 또 다른 흥미로운 방향은 Amazon Alexa, Apple Siri 및 Google Assistant와 같은 대화 시스템이라고 이 논문의 연구원은 말했습니다. 이러한 애플리케이션에서는 챗봇과 최종 사용자 간의 완전한 상호 작용 추적을 통해 데이터 포인트가 제공됩니다. 이 설정에서 챗봇은 훈련된 강화 학습 정책이며 사용자와 로봇의 상호 작용이 입력 궤적을 형성합니다.

저자는 “이 경우 집단 패턴은 자연 환경이다. 즉, 공격자는 사용자가 있는 것으로 추론할 수 있다”고 말합니다.

팀은 이러한 유형의 다른 실용적인 응용 프로그램을 탐색하고 있습니다. 공격은 강화 학습 시스템에 영향을 미칠 수 있습니다. 또한 이러한 공격이 다른 맥락에서 강화 학습에 어떻게 적용될 수 있는지 연구할 수도 있습니다.

저자들은 "이 연구 영역의 흥미로운 확장은 대상 정책의 내부 구조도 공격자에게 알려진 화이트박스 환경에서 심층 강화 학습 모델에 대한 구성원 추론 공격을 연구하는 것입니다."라고 말합니다.

연구원들은 그들의 연구가 실제 강화 학습 애플리케이션의 보안 및 개인 정보 보호 문제를 밝히고 기계 학습 커뮤니티의 인식을 높여 이 분야에 대한 더 많은 연구가 수행될 수 있기를 바랍니다.

원제: 강화 학습 모델은 멤버십 추론 공격에 취약합니다​, 저자: Ben Dickson

위 내용은 연구에 따르면 강화 학습 모델은 멤버십 추론 공격에 취약합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
이 기사는 51CTO.COM에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제
신속한 엔지니어링에서 생각의 그래프는 무엇입니까?신속한 엔지니어링에서 생각의 그래프는 무엇입니까?Apr 13, 2025 am 11:53 AM

소개 신속한 엔지니어링에서 "Thought of Thought"는 그래프 이론을 사용하여 AI의 추론 과정을 구성하고 안내하는 새로운 접근법을 나타냅니다. 종종 선형 S와 관련된 전통적인 방법과 달리

Genai 에이전트와 함께 조직의 이메일 마케팅을 최적화하십시오Genai 에이전트와 함께 조직의 이메일 마케팅을 최적화하십시오Apr 13, 2025 am 11:44 AM

소개 축하해요! 당신은 성공적인 사업을 운영합니다. 웹 페이지, 소셜 미디어 캠페인, 웹 세미나, 컨퍼런스, 무료 리소스 및 기타 소스를 통해 매일 5000 개의 이메일 ID를 수집합니다. 다음 명백한 단계는입니다

Apache Pinot을 사용한 실시간 앱 성능 모니터링Apache Pinot을 사용한 실시간 앱 성능 모니터링Apr 13, 2025 am 11:40 AM

소개 오늘날의 빠르게 진행되는 소프트웨어 개발 환경에서 최적의 애플리케이션 성능이 중요합니다. 응답 시간, 오류율 및 자원 활용과 같은 실시간 메트릭 모니터링 메인이 도움이 될 수 있습니다.

Chatgpt가 10 억 명의 사용자를 쳤습니까? Openai CEO는'몇 주 만에 두 배가되었습니다Chatgpt가 10 억 명의 사용자를 쳤습니까? Openai CEO는'몇 주 만에 두 배가되었습니다Apr 13, 2025 am 11:23 AM

"얼마나 많은 사용자가 있습니까?" 그는 자극했다. Altman은“마지막으로 우리가 마지막으로 말한 것은 매주 5 억 명의 행위자이며 매우 빠르게 성장하고 있다고 생각합니다. 앤더슨은 계속해서“당신은 나에게 몇 주 만에 두 배가되었다고 말했습니다. “저는 그 개인이라고 말했습니다

Pixtral -12B : Mistral AI의 첫 번째 멀티 모드 모델 -Anuctics VidhyaPixtral -12B : Mistral AI의 첫 번째 멀티 모드 모델 -Anuctics VidhyaApr 13, 2025 am 11:20 AM

소개 Mistral은 최초의 멀티 모드 모델, 즉 Pixtral-12B-2409를 발표했습니다. 이 모델은 Mistral의 120 억 개의 매개 변수 인 NEMO 12B를 기반으로합니다. 이 모델을 차별화하는 것은 무엇입니까? 이제 이미지와 Tex를 모두 가져갈 수 있습니다

생성 AI 응용 프로그램을위한 에이전트 프레임 워크 - 분석 Vidhya생성 AI 응용 프로그램을위한 에이전트 프레임 워크 - 분석 VidhyaApr 13, 2025 am 11:13 AM

쿼리에 응답 할뿐만 아니라 자율적으로 정보를 모으고, 작업을 실행하며, 여러 유형의 데이터 (텍스트, 이미지 및 코드를 처리하는 AI 구동 조수가 있다고 상상해보십시오. 미래처럼 들리나요? 이것에서

금융 부문에서 생성 AI의 응용금융 부문에서 생성 AI의 응용Apr 13, 2025 am 11:12 AM

소개 금융 산업은 효율적인 거래 및 신용 가용성을 촉진함으로써 경제 성장을 주도하기 때문에 모든 국가 개발의 초석입니다. 거래가 발생하는 용이성 및 신용

온라인 학습 및 수동 공격 알고리즘 안내온라인 학습 및 수동 공격 알고리즘 안내Apr 13, 2025 am 11:09 AM

소개 소셜 미디어, 금융 거래 및 전자 상거래 플랫폼과 같은 소스에서 전례없는 속도로 데이터가 생성되고 있습니다. 이 지속적인 정보 스트림을 처리하는 것은 어려운 일이지만

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전By尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
4 몇 주 전By尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

Eclipse용 SAP NetWeaver 서버 어댑터

Eclipse용 SAP NetWeaver 서버 어댑터

Eclipse를 SAP NetWeaver 애플리케이션 서버와 통합합니다.

DVWA

DVWA

DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는

SublimeText3 영어 버전

SublimeText3 영어 버전

권장 사항: Win 버전, 코드 프롬프트 지원!

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

Atom Editor Mac 버전 다운로드

Atom Editor Mac 버전 다운로드

가장 인기 있는 오픈 소스 편집기