>  기사  >  기술 주변기기  >  인공지능의 급속한 발전 뒤에는 다양한 보안 위험이 존재합니다.

인공지능의 급속한 발전 뒤에는 다양한 보안 위험이 존재합니다.

WBOY
WBOY앞으로
2023-04-12 20:25:071412검색

누군가 얼굴에 "스티커"를 붙이면 얼굴 인식 출입 통제 시스템이 이를 실수하게 만들고 안경에 동일한 "스티커"를 붙이면 쉽게 문을 열 수 있다고 상상해 보세요. 1초 만에 얼굴을 인식하고 무인지대에 있는 것처럼 개인정보를 탐색하세요. 이는 공상과학 블록버스터의 상상이 아닌, 제1회 인공지능 보안대회 시상식에서 선보인 실제 공격과 방어 장면이다.

인공지능의 급속한 발전 뒤에는 다양한 보안 위험이 존재합니다.

얼마 전 국가산업정보보안개발연구센터, 칭화대학교 인공지능연구소, 베이징루이라이지능기술유한공사가 공동으로 주최한 제1회 인공지능 보안 대회가 막을 내렸습니다. 대회 중에는 인공지능의 보안 위험성에 대한 논의가 이어졌습니다. 회의에 참석한 전문가들은 인공지능 보안 위험이 더 이상 미래의 도전이 아니라 즉각적인 위협이라고 말했다. 우리는 인공지능 보안 시스템 구축에 관심을 갖고 인공지능 분야의 핵심 기술 연구 추진과 공격 및 방어 관행을 가속화해야 한다. 지능 보안.

인공지능은 다른 일반 기술과 마찬가지로 급속도로 발전하고 있지만 특정 위험과 숨겨진 위험도 가져옵니다. "Wu Wenjun 인공지능 우수 청년상"을 수상한 Ruilai Smart의 CEO Tian Tian은 응용 시나리오가 더욱 광범위해짐에 따라 인공지능 기술 위험의 범위가 점차 확대되고 있으며 위험 가능성도 증가하고 있다고 믿습니다. 적용 시나리오에 따라 증가합니다. 적용 빈도가 증가함에 따라 계속해서 증가합니다. 그의 견해로는 현재 인공지능의 보안 위험은 주로 '사람'과 '시스템'이라는 두 가지 관점에서 분석할 수 있다.

인간의 관점에서 인공지능의 보안 문제를 평가할 때 가장 먼저 쟁점이 되는 것은 기술의 이중성, 그리고 인공지능의 남용 문제이다. 인공지능 응용 분야에서 가장 대표적인 것이 딥페이크(deepfake) 기술인데, 이 기술의 부정적인 응용 위험은 계속해서 심화되어 상당한 피해를 입혀 왔습니다.

이번 대회의 얼굴인식 크래킹 시연은 딥러닝 알고리즘 자체의 취약성에서 비롯되는 시스템의 위험성을 정확히 드러냅니다. 딥러닝 알고리즘을 핵심으로 하는 2세대 인공지능은 설명할 수 없는 '블랙박스'다. 즉 시스템에 구조적 허점이 있고 예측할 수 없는 위험에 노출될 수 있다는 뜻이다. 대표적인 예가 '마법의 스티커'다. 사이트 데모는 실제로 입력 데이터에 교란을 추가하여 시스템이 잘못된 판단을 내리게 하는 "적대적 샘플 공격"입니다.

이 취약점은 자율주행 인식 시스템에도 존재합니다. 정상적인 상황에서 자율주행차는 장애물, 표지판, 보행자 및 기타 목표물을 식별한 후 즉시 정지합니다. 그러나 목표물에 간섭 패턴을 추가한 후에는 차량의 인식 시스템이 오류를 범하여 직접 충돌할 수 있습니다.

대회 기간 중 '인공지능 컴퓨팅 인프라 보안 개발 백서'가 공개되었습니다. 인공지능 컴퓨팅 파워 인프라는 기존의 컴퓨팅 파워 인프라와는 달리 '인프라', '인공지능 컴퓨팅 파워', '공공 시설'을 모두 포함하며 인프라, 기술, 공공 속성이라는 세 가지 속성을 갖고 있다고 합니다. 따라서 인공지능 컴퓨팅 파워 인프라의 안전한 개발을 촉진하려면 자체 보안 강화, 운영 안전성 확보, 안전 준수 지원에 중점을 두어야 합니다.

개발과 보안을 조정하는 것은 모든 신기술의 개발 과정에서 직면하는 피할 수 없는 문제인 것 같습니다. 높은 수준의 개발과 높은 수준의 보안 간의 긍정적인 상호 작용을 달성하는 방법 또한 현재 개발에서 가장 중요한 제안 중 하나입니다. 현장의 많은 전문가들이 이 주제에 대해 논의하고 있습니다.

"인공지능 적대적 공격 및 방어에는 적대적 샘플, 신경망 백도어, 모델 개인 정보 보호 문제 및 기타 기술이 포함됩니다. 모델에 오류가 있으면 적시에 수리해야 합니다. State Key 부국장 Chen Kai." 중국과학원 정보보안연구소는 '신경망 메스' 방법을 통해 오류를 일으킨 뉴런을 찾아 정밀한 '최소 침습' 복구를 수행할 수 있다고 제안했다.

Chen Kai는 모델을 재교육해야 하거나 더 많은 수의 데이터 샘플에 의존하는 기존 모델 복구 작업과 달리 이 방법은 "최소 침습 수술"과 유사하며 매우 적은 양의 데이터 샘플만 필요하다고 말했습니다. 모델 수리 효과가 크게 향상됩니다.

개방형 환경의 인공지능 시스템은 많은 보안 문제에 직면해 있습니다. 일반 인공지능 알고리즘 전체 주기의 보안 문제를 어떻게 해결하는 것이 최우선 과제가 되었습니다.

베이항대학교 소프트웨어 개발 환경 국가 핵심 연구소 부소장인 Liu Xianglong은 기술적인 관점에서 볼 때 보안 테스트부터 보안 분석 및 보안 강화에 이르기까지 완전한 기술 수단이 형성되어야 하며 최종적으로는 표준화된 솔루션이 필요하다고 말했습니다. 테스트 프로세스가 구성되어야합니다.

미래 인공지능 보안은 데이터, 알고리즘, 시스템 등 모든 수준에서 종합적인 평가에 중점을 두는 동시에 하드웨어부터 소프트웨어까지 안전하고 신뢰할 수 있는 컴퓨팅 환경과 결합되어야 한다고 지적했습니다.

중국 공상은행 금융연구소 보안 공격 및 방어 연구소 전문가인 Su Jianming은 인공지능 보안 거버넌스에는 광범위한 협업과 개방형 혁신이 필요하다고 말했습니다. 정부, 학술기관, 기업 등 다양한 산업 참여자들과 함께 긍정적인 생태학적 규칙을 확립합니다. 정책 차원에서는 인공지능 입법 과정을 가속화하고, 인공지능 서비스 수준과 기술 지원 역량에 대한 특별 감독과 평가를 강화해야 한다. 학계 차원에서는 산학연 협력 모델을 통해 인공지능 안전 연구에 대한 인센티브를 높이고 과학 연구 결과의 전환과 구현을 가속화한다. 기업 차원에서는 인공지능 기술의 전환을 시나리오 확장에서 안전하고 신뢰할 수 있는 개발로 점진적으로 추진하고, 표준 제정, 제품 및 서비스 출시에 참여하여 인공지능 안전 관행 및 솔루션을 지속적으로 탐구할 것입니다.

사실 안전한 인공지능 생태계를 구축하려면 한편으로는 지속적인 기술의 진화가 필요하고, 다른 한편으로는 전문 기술 인재의 양성과 양성이 필요합니다. Tian Tian은 인공지능 보안 연구가 아직 신흥 분야이기 때문에 전문 인력이 거의 없고 체계적인 연구팀이 부족하다고 말했습니다. 이번 대회에서는 실제 전투 훈련을 통해 플레이어의 실제 전투 능력을 검증하고 향상시킵니다. 높은 수준의 그룹을 육성하기 위해 높은 수준의 인공 지능 보안 새로운 인재 팀은 "빠른 경로"를 제공합니다.

전문가들은 장기적으로 인공지능의 보안 문제는 알고리즘 모델의 원리에서 벗어나야 하며, 기초 연구를 지속적으로 강화해야만 핵심적인 과학적 문제도 해결할 수 있다고 강조했습니다. 미래의 인공지능 개발은 사회 전체와 국가 발전의 효과성과 긍정적인 촉진을 보장해야 합니다. 이를 위해서는 정부, 업계, 학계, 연구를 포함한 다양한 당사자의 조화로운 발전이 필요합니다.

위 내용은 인공지능의 급속한 발전 뒤에는 다양한 보안 위험이 존재합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제