>  기사  >  기술 주변기기  >  유럽의 인공지능 법안이 곧 제출될 예정이며, 이는 글로벌 기술 규제에 영향을 미칠 수 있음

유럽의 인공지능 법안이 곧 제출될 예정이며, 이는 글로벌 기술 규제에 영향을 미칠 수 있음

WBOY
WBOY앞으로
2023-04-11 22:40:141161검색

인공 지능 법안은 인공 지능의 개발 방법, 회사에서 사용할 수 있는 용도, 요구 사항을 준수하지 않을 경우의 법적 결과 등 인공 지능 사용에 대한 공통 규제 및 법적 프레임워크를 만드는 것을 목표로 합니다. 이 법안은 기업이 인공 지능을 채택하기 전에 특정 상황에서 승인을 얻도록 요구하고, 너무 위험하다고 간주되는 인공 지능의 특정 사용을 금지하고, 기타 고위험 인공 지능 사용에 대한 공개 목록을 만들도록 요구할 수 있습니다.

유럽의 인공지능 법안이 곧 제출될 예정이며, 이는 글로벌 기술 규제에 영향을 미칠 수 있음

법에 대한 공식 보고서에서 유럽 위원회는 광범위한 수준에서 이 법이 EU의 신뢰할 수 있는 인공 지능 패러다임을 성문화하려고 한다고 밝혔습니다. 이 패러다임은 “AI가 민주적 가치, 인권 및 법치를 존중하면서 법적, 윤리적, 기술적으로 강력해야 함”을 요구합니다.

제안된 인공 지능 규제 프레임워크의 목표는 다음과 같습니다.

1. EU 시장에 배포 및 사용되는 인공 지능 시스템이 안전하고 기존 법적 기본권과 EU 가치를 존중하는지 확인합니다.

2. 인공 지능에 대한 투자와 혁신을 촉진합니다.

3. AI 시스템에 적용되는 기본 권리 및 보안에 대한 기존 법률의 효과적인 집행을 강화합니다.

4. 합법적이고 안전하며 신뢰할 수 있는 인공 지능 애플리케이션 시장 개발을 촉진합니다. 시장 차별화를 막는다.

새로운 법률의 많은 세부 사항이 아직 공개되지 않았지만 핵심 요소는 AI의 정의이지만 핵심 요소는 미래의 AI 제품을 모든 산업에 적용할 수 있는 4가지 보안 수준 범주로 나누는 "제품 보안 프레임워크"인 것으로 보입니다.

스탠포드-비엔나 대서양 횡단 기술법 포럼의 Maruritz Kop이 편집한 새로운 법률에 대한 2021년 유럽 위원회 보고서에 따르면 "임계 피라미드"의 맨 아래가 가장 위험도가 낮은 시스템입니다. 이 범주에 속하는 AI 애플리케이션은 더 위험한 시스템이 통과해야 하는 투명성 요구 사항을 준수할 필요가 없습니다. "제한된 위험" 범주에는 챗봇과 같은 AI 시스템에 대한 몇 가지 투명성 요구 사항이 있습니다.

유럽의 인공지능 법안이 곧 제출될 예정이며, 이는 글로벌 기술 규제에 영향을 미칠 수 있음

——EU의 새로운 AI 법안은 AI 프로그램을 낮은 위험, 제한된 위험, 높은 위험, 허용할 수 없는 위험의 네 가지 범주로 분류합니다.

투명성 요구사항이 엄격한 고위험 AI 카테고리에서는 감독이 더욱 엄격해집니다. 서문에 따르면 고위험 범주에는 다음 분야의 AI 애플리케이션이 포함됩니다.

  • 사람의 생명이나 건강을 위협할 수 있는 교통과 같은 중요 인프라(예: 자율 주행 자동차)
  • 개인 교육에 영향을 미치는 교육 또는 직업 훈련 또는 직업적 성과(예: 시험 점수)
  • 제품의 안전 구성 요소(예: 로봇 보조 수술)
  • 고용, 직원 관리, 자영업(예: 이력서, 이력서 분류 소프트웨어) (예: 신용 점수)
  • 법 집행 사례(예: 증거 평가)
  • 이민, 국경 관리(여권 진위 여부 평가 포함)
  • 공정하고 민주적인 절차(예: 특정 사실에 대한 법률 적용)
  • 감시 시스템(예: 생체 인식 모니터링 및 얼굴 인식).
  • 첨탑 꼭대기의 네 번째 카테고리는 "허용할 수 없는 위험"이 있는 인공 지능 시스템입니다. 이러한 앱은 너무 많은 위험을 초래하므로 기본적으로 불법입니다. 이러한 애플리케이션의 예로는 행동이나 사람 또는 "특별히 취약한 그룹"을 조작하는 시스템, 소셜 스코어링, 실시간 및 원격 생체인식 시스템이 있습니다.

더 높은 위험 범주는 투명성과 규정 준수를 보장하려는 많은 기업의 노력의 초점이 될 가능성이 높습니다. EU의 인공 지능 법안은 기업들이 고위험 범주에 속하는 AI 제품이나 서비스를 출시하기 전에 4가지 단계를 수행하도록 권고합니다.

AI 영향 평가와 포괄적이고 다양한 분야의 팀이 감독하는 행동 강령을 사용하여 가급적이면 사내에서 고위험 AI 시스템을 개발하세요.
  1. 고위험 인공 지능 시스템은 적합성 평가 및 승인을 받아야 하며 수명 주기 동안 EU AI법의 요구 사항을 계속 준수해야 합니다. 시스템 외부의 일부 조직은 적합성 평가 감사에 참여합니다. 이 동적 프로세스는 벤치마킹, 모니터링 및 검증을 보장합니다. 또한 고위험 AI의 동적 시스템의 경우 2단계를 반복해야 합니다.
  2. 독립적인 고위험 AI 시스템 등록은 EU 전용 데이터베이스에서 이루어집니다.
  3. 적합성 선언에 서명해야 하며 고위험 AI 시스템에는 CE 마크가 있어야 합니다.

위 내용은 유럽의 인공지능 법안이 곧 제출될 예정이며, 이는 글로벌 기술 규제에 영향을 미칠 수 있음의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제