자동차 전동화, 네트워크 연결, 지능화의 발전 추세 속에서 자동차 자율주행 기술의 급속한 발전으로 인해 자동차 산업은 점점 더 근본적인 변화에 가까워지고 있습니다. 그러나 최근 몇 년 동안 자율주행차의 안전 문제가 점점 더 부각되고 있으며, 관련 사고로 인해 자율주행차에 대한 대중의 신뢰가 어느 정도 약화되었습니다. 자율주행 알고리즘으로 인해 발생하는 안전 문제에 효과적으로 대응하기 위해서는 자율주행차의 연구개발 테스트 단계에서 상용 적용 단계로의 전환을 가속화할 수 있는 통합된 자율주행 알고리즘 보안 프레임워크를 구축해야 합니다.
자율주행 알고리즘 안전 문제의 주요 징후
현재 중국의 자율주행차 법안은 주로 도로 테스트, 데모 애플리케이션 및 차량 데이터 보안에 중점을 두고 있으며 아직 목표를 정하지 않았습니다. 인공 지능 지능형 알고리즘을 핵심으로 하는 자율 주행 시스템은 완전하고 통일된 안전 감독 프레임워크를 형성합니다. 향후 입법은 세 가지 측면에 대한 대응에 중점을 둘 필요가 있다.
먼저 일반적인 기술 보안이 가장 중요하고 관련성이 높은 변수입니다. 확립된 규제 프레임워크(안전 표준, 테스트 및 인증, 제품 승인 등 포함)의 적용을 받는 기존 자동차와 운전 면허증 및 책임 메커니즘의 적용을 받는 인간 운전자와 비교할 때 자율 주행 시스템의 안전 표준은 다음과 같습니다. 아직 확립되지 않았기 때문에 자율주행 자동차를 운전하는 것은 아직 전통적인 자동차와 같은 방식으로 안전성과 규정 준수를 입증하지 못합니다. 따라서 이 단계에서 핵심 문제는 자율주행 시스템에 대한 안전 임계값, 안전 표준, 테스트 및 인증 방법, 승인 메커니즘 및 기타 요구 사항을 설정하는 것입니다.
핵심 질문은 정책 입안자와 규제 기관이 자율 주행 차량의 상업적 배포를 허용하기 전에 자율 주행 시스템이 얼마나 안전해야 하는지입니다. 기술에 대한 사회의 편견으로 인해 허용 가능한 보안에 대한 임계값이 부적절하게 높아질 수 있습니다. 예를 들어, 자율주행차는 사고 제로를 달성하기에 충분한 절대적인 안전 수준에 도달해야 한다고 생각됩니다. 저자는 자율주행 알고리즘의 안전 임계값은 절대 목표(사고 제로, 사상자 제로 등)의 자율주행 수준이 아니라 일반적인 인간의 운전 수준을 기준으로 판단해야 한다고 생각한다. 과학적이고 합리적인 안전 기준. 예를 들어, 영국이 2022년 8월 발표한 자율주행 정책 문서 "Connected and Autonomous Mobility 2025: Unleashing the Benefits of Autonomous Vehicles in the UK"에서는 자율주행차의 안전 기준점을 명확하게 제시하고 있습니다. "유능하고 신중한" 요구 사항 "유능하고 조심스러운 인간 운전자"(유능하고 조심스러운 인간 운전자)는 일반 인간 운전자와 동일한 수준의 안전 수준을 갖습니다.
두 번째, 네트워크 보안 문제입니다. 사이버 보안은 자율주행차의 개발과 적용에 영향을 미치는 핵심 요소이며, 이와 관련된 위험과 위협은 자율주행차에 대한 위협을 해결하기 가장 복잡하고 어려워질 것입니다. 전반적으로 자율 주행 차량의 사이버 보안 문제는 주로 다음과 같은 특징을 나타냅니다.
첫째, 자율 차량은 기존 차량보다 사이버 보안 위험에 더 취약합니다. 자율주행차는 "바퀴 달린 로봇"입니다. 자율주행차는 전통적인 의미의 사이버 보안 위험에 직면할 뿐만 아니라 자율주행 알고리즘으로 인해 발생하는 새로운 사이버 보안 문제, 위험 및 위협에도 직면하게 됩니다.
두 번째, 자율 차량에 대한 사이버 보안 위험의 원인은 더욱 다양해졌습니다. 다양한 주체가 제조, 운영, 유지 관리, 스마트 인프라, 보험, 감독 및 기타 링크에서 자율 차량에 액세스하거나 제어할 수 있습니다. .
셋째, 자율주행차는 더욱 다양한 네트워크 침입 방식에 직면합니다. 예를 들어, 해커는 소프트웨어 취약점을 표적으로 삼거나, 악성 장치를 연결하여 자율주행차에 물리적 공격을 가하거나, 스마트 도로 인프라와 같은 자율주행차 생태계의 구성 요소를 공격할 수 있습니다.
또한 공격 효과 측면에서 해커는 실패 공격, 운영 공격, 데이터 조작 공격, 데이터 도난 등 다양한 유형의 공격을 채택할 수 있습니다. 이러한 공격의 영향은 클 수도 있고 작을 수도 있으며 그렇게 해서는 안 됩니다. 과소평가되다 넷째, 자율주행차의 사이버보안 위험은 폭과 깊이의 특성을 모두 나타내어 전반적이고 다단계적인 해로운 결과를 가져옵니다. 범위 측면에서 자율주행차의 소프트웨어 및 하드웨어 취약성은 광범위할 수 있으며, 이는 자율주행차가 침입하여 통제된 후 사이버 공격이 깊이 측면에서 증폭될 수 있음을 의미합니다. 사상자, 재산 피해, 데이터 도난 등을 포함한 수준입니다.
세 번째, 윤리적 안전 문제입니다. 자율주행 알고리즘에 있어 가장 중요한 윤리적 안전 문제는 피할 수 없는 사고에 직면했을 때 알고리즘이 어떻게 판단하고 행동해야 하는가이다. 특히 딜레마(도덕적 딜레마)에 직면했을 때 우리는 어떻게 선택해야 할까요? 보행자와 같은 다른 도로 참가자의 희생을 의미하더라도 사상자를 최소화하거나 차량 탑승자를 보호하기 위해 어떤 희생을 치르더라도 선택해야 합니까? 자율주행차에 도덕적 딜레마가 발생할 가능성은 기술과 윤리 간의 상호작용을 피할 수 없는 문제로 만듭니다. 즉 복잡한 인간 도덕성을 자율주행 알고리즘의 설계에 어떻게 프로그래밍할 것인가입니다. 이 문제에 대해서는 아직 사회 각계가 합의에 이르지 못했습니다.
자율 자동차를 위한 알고리즘 보안 프레임워크 구축
"지능형 자동차 혁신 및 개발 전략"의 실현을 보장하기 위해 "2025년까지 중국 표준 지능형 자동차 기술 혁신, 산업 생태학, 인프라, 규정 및 표준, 제품 감독 및 네트워크 보안 시스템이 기본적으로 형성되었으며 조건부 자율형 스마트 자동차의 대규모 생산을 달성하고 특정 환경에서 고도로 자율적인 스마트 자동차의 시장 적용을 실현하려는 목표는 다음과 같습니다. 전통적인 자동차와 인간 운전자에 대한 입법 및 규제 프레임워크를 혁신하고 자율주행차를 현재 도로 교통 시스템에 통합하기 위한 새로운 법률 시스템 및 규제 프레임워크를 구축합니다. 핵심적인 측면 중 하나는 자율주행 알고리즘을 핵심으로 하는 안전 규제 프레임워크를 구축하는 것으로, 기술 안전 표준 및 승인 인증, 네트워크 보안 인증, 윤리적 위험 관리 등 3가지 차원을 포괄해야 합니다.
먼저, 자율주행 시스템에 대한 새로운 안전 표준과 인증 메커니즘을 확립하세요. 전통적으로 자동차 하드웨어와 운전자 중심의 안전기준에서 자율주행 알고리즘을 핵심으로 하는 안전기준으로 전환하는, 자율주행차에 대한 새롭고 통일된 안전기준 마련이 시급하다. 조종석, 운전대, 페달, 백미러가 필요 없는 자율주행차. 또한, 자율주행 시스템의 안전성을 보다 정확하고 안정적으로 평가하고 검증하기 위해서는 향후 법률 및 정책에서 자율주행 시스템에 대한 과학적이고 합리적인 안전 임계값과 벤치마크를 설정해야 하며, 자율주행차에 최소한 "유능하고 신중한" "인간 운전자와 동일한 수준의 안전"이라는 요구 사항을 충족하고 도로 주행의 기술 수준을 기반으로 일련의 과학적이고 합리적인 감지 방법을 구축합니다.
둘째, 자율주행차를 위한 새로운 사이버보안 프레임워크를 구축해야 합니다. 정책 입안자들은 자율주행차의 사이버 보안을 전체적으로 보장하기 위해 전통적인 사이버 보안 원칙을 통합하는 것을 고려해야 합니다. 첫 번째는 자율주행차에 대한 사이버보안 인증 메커니즘을 구축하는 것입니다. 사이버보안 인증을 통과한 자율주행차만 판매 및 사용이 허용됩니다. 그리고 이 메커니즘은 소프트웨어 및 하드웨어 공급망으로 확장되어야 합니다. 둘째, 기술적 조치와 비기술적 조치를 포함해 자율주행차의 사이버보안 보호 능력과 요구사항을 명확히 할 필요가 있다. 세 번째는 B2B, B2G, G2B 등 업계와 정부 간 데이터 공유, 특히 안전사고, 네트워크 보안, 자율주행 시스템 해제 등 안전사고 관련 데이터를 실현할 필요가 있다. 사고 데이터 보고 및 공유 메커니즘을 구축하는 것은 전체 자율주행 산업의 발전 수준을 향상시키는 데 큰 의미가 있습니다.
셋째, 자율주행 알고리즘 등 윤리적 리스크 관리 메커니즘을 확립합니다. 한편으로는 자율주행 알고리즘이 일반 대중의 이익과 윤리적으로 일치하고 대중의 수용과 도덕적 요구 사항 사이에서 일정한 균형을 달성할 수 있도록 자율주행 알고리즘 설계 시 윤리적 선택에 대한 표준을 설정하기 위해 명확한 정부 감독이 필요합니다. . 균형. 한편, 자율주행차 기업은 자율주행차 기술의 과학기술 윤리 거버넌스를 강화하고, 과학기술 윤리경영의 주요 책임을 적극적으로 이행하며, 과학기술 윤리의 기본 원칙을 준수하고, 자율주행차 기술에 대한 과학기술윤리 위험성 평가 및 검토, 과학기술윤리 위험성 모니터링 및 조기경보 메커니즘 구축, 과학기술인력 윤리교육 강화 등 예를 들어 영국 규제 당국은 자율주행차 거버넌스를 더 잘 지원하기 위해 'AV 윤리 및 안전 위원회' 설립을 제안했습니다.
요약하자면, 자율주행차의 광범위한 배포와 사용은 많은 긍정적인 이점을 실현하는 데 필요한 조건입니다. 광범위한 배포 및 사용을 위한 필수 조건은 적절한 안전 프레임워크를 구축하고 자율주행차의 테스트에서 상용화로의 도약을 가속화하는 것입니다. 그러나 어떤 합리적인 법적 정책도 대중의 수용을 막을 수는 없습니다. 즉, 자율주행차가 가장 선호되는 교통수단이 되려면 사용자와 사회 전체의 기대를 고려해야 하며, 여기에는 신뢰, 책임 등의 디자인 가치뿐만 아니라 사용자 만족도도 포함됩니다. , 투명성.
자율주행차에 대한 안전 규정도 이러한 기대를 고려해야 하며, 과도한 기대를 조정하기까지 해야 합니다. 이러한 고려 사항을 바탕으로 본 논문에서는 자율주행차가 상용화되기 전에 직면해야 하는 알고리즘 안전 문제를 해결하기 위한 새로운 자율주행 알고리즘 안전 규제 프레임워크를 혁신적으로 제안합니다. 장기적으로 자율주행차의 상업적 이용은 미래 교통법규의 끝이 아닌 시작점일 뿐이며, 자동차 디자인, 교통법규, 책임보험, 보상, 운전습관 등의 일련의 변화가 일어날 것입니다. 차례대로 오세요.
위 내용은 자율주행차를 상업적으로 활용하려면 알고리즘 안전 규정에 주의가 필요합니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!