>  기사  >  기술 주변기기  >  인공지능 규제에 관한 EU 협정 살펴보기

인공지능 규제에 관한 EU 협정 살펴보기

WBOY
WBOY앞으로
2024-05-07 17:34:32903검색

사흘 간의 '마라톤' 협상이 성공적인 결론에 이르렀습니다. 협의회 의장과 협상자들은 인공지능 조정 규칙에 대해 방금 합의에 도달했습니다. 이는 결국 '인공지능 규제를 위한 인공지능 법안'이 될 것으로 예상됩니다. ". 규정 초안은 EU에서 안전하고 인권을 존중하는 AI 시스템의 배포를 우선시하는 규정 준수 프레임워크를 제공하는 데 중점을 두고 있습니다. 이번 인공지능 규제는 유럽 국가들이 인공지능 분야에 투자하고 혁신하도록 고무하는 것 이상이다.

인공지능 규제에 관한 EU 협정 살펴보기

인공 지능 법안은 인공 지능의 사용이 더 나은 보안이 되고 EU 전역의 공공 및 민간 기관 이해관계자의 참여를 보장하는 도구를 신뢰하는 환경을 조성할 수 있는 획기적인 법안입니다. 주요 아이디어는 사회에 해를 끼칠 수 있는 능력을 기반으로 AI를 규제하는 "위험 기반" 접근 방식을 따르는 것입니다. 위험이 더 해로울수록 더 많은 제한을 적용해야 합니다. 이 법은 다른 관할권의 인공 지능 규제에 대한 세계적인 선례를 설정합니다. 이와 대조적으로 GDPR은 개인 데이터 보호 측면에서 동일한 방식으로 이를 달성함으로써 기술 규제에 대한 EU의 접근 방식을 전 세계적으로 촉진합니다.

임시 협정의 주요 요소

유럽연합 집행위원회의 최초 제안과 비교하여, 인공지능 규제에 관한 임시 협정의 새로운 주요 요소는 다음과 같이 요약할 수 있습니다. 미래의 시스템적 위험을 수반하는 일반 인공지능 시스템을 제어하는 ​​지능형 모델과 고위험 인공지능 시스템을 분류합니다.

EU 수준에서 조정 권한을 부여하거나 경제 정책을 정밀 검사하여 거버넌스 시스템을 개선합니다.
  • 금지 품목 목록이 확대되었지만 경찰은 공공 장소에서 원격 생체 인식을 사용할 수 있지만 이는 남용되지 않는 조건에서 수행됩니다.
  • 잠재적으로 위험한 시스템을 배포하는 AI 행위자가 이러한 시스템을 사용하기 전에 이러한 시스템의 기본 권리에 미치는 영향을 이해하도록 요구함으로써 더 나은 권리 집행이 가능합니다.
  • 보다 구체적으로 임시 합의에는 다음 측면이 포함됩니다.

정의 및 범위

  • 선정 합의에서 OECD 보호소를 선택하려는 인공 지능 시스템의 정의는 제안된 절차에 해당합니다. 이처럼 인공지능 시스템에 대한 표준은 단순한 소프트웨어 시스템을 더욱 명확하게 구별하는 데 도움이 됩니다.
  • 또한 임시 협정에서는 규정의 규칙이 EU 법률 분야에 속하는 부문을 포함하지 않으며 국가 안보 분야 또는 공유 당사자의 분야에서 회원국의 역량을 어떤 식으로든 약화시킬 수 없다는 점을 더 자세히 설명합니다. 국가 안보 분야의 책임. 뿐만 아니라 인공지능법은 군사나 국방 목적으로만 사용되는 인공지능 시스템에는 적용되지 않습니다. 동시에 조약은 인공지능 시스템이 과학 및 연구 목적뿐만 아니라 비인공지능 기술자나 비인공지능 기술자 등 비과학적이고 비혁신적인 이유로 사용될 때 인공지능 시스템에 법이 적용된다고 명시하고 있습니다. 전문가.
  • AI 시스템을 고위험 및 금지된 AI 관행으로 분류합니다

예기치 못한 결과를 배제하기 위해 레벨 1.1 "심각한/상당한 권리 피해 가능성"을 포함하는 수평적 안전 장벽을 만듭니다. 인공 지능 시스템에 대한 위협입니다. 사용자에게 약간의 해를 끼칠 위험이 있는 AI 시스템에는 최소한의 투명성 요구 사항이 적용됩니다. 예를 들어, 콘텐츠를 사용할지 또는 추가 작업을 수행할지 여부를 결정할 수 있도록 콘텐츠가 인공 지능에 의해 생성되었음을 사용자에게 알려야 합니다.

EU 영토에서 작동하는 다양한 AI 기반 시스템이 승인됩니다. 그러나 EU 시장 진출을 위해서는 충족해야 할 요구 사항과 책임이 있습니다. 이들 공동 입법자들은 기술적으로 더 간단하고 명확하게 만들기 위해 일부 조항을 추가하고 개정하여 중소기업이 인공 지능을 인증하기 위해 준비해야 하는 데이터 품질 및 기술 문서 제공과 관련하여 이해관계자의 부담을 완화했습니다. 안전하게 제작되었으며 현행 규정을 준수합니다.

AI 시스템은 까다로운 가치 사슬 환경에서 생성 및 제공되므로 타협 합의에는 무엇보다도 체인 내 다양한 ​​행위자의 영향(예: 기술)을 반영하기 위해 기업 행동의 수정이 필요합니다. 시스템 제공자와 사용자의 책임 범위/영향력). 또한 AI 법안에서 파생된 AI 관련 의무가 EU의 데이터 법률 및 부문별 법률과 같은 다른 법률에 명시된 의무와 어떻게 상호 작용하고 충돌하는지 설명합니다.

인공지능의 적용은 위험성이 높기 때문에 거부될 예정이며, 이는 특정 인공지능 사용이 금지되어 있습니다. 따라서 이러한 장치는 EU에 도입되지 않습니다. 예비 합의에 따르면 금지된 활동에는 행동 제어를 위한 인지 기술, 인터넷에서 목적 없이 얼굴 이미지를 수집하는 행위, 기관 및 교육 기관에서 감정 인식, 사회적 점수 매기기, 성적 지향이나 종교적 신념을 결정하기 위한 생체 인식 방법 및 일부 개인 계보가 포함됩니다. 치안 목적으로.

  • 법 집행 예외

법 집행 기관의 특수성과 업무 수행 시 컴퓨터 사용의 필요성을 고려하여 법 집행을 위한 규칙 AI에 대한 위원회의 권장 사항이 몇 가지 수정되었습니다. , 이는 매우 중요합니다. 신중한 조치가 취해지면 이러한 변화는 운영자가 정보 프라이버시를 보호해야 할 필요성으로 해석될 것입니다. 이에 대한 예는 고위험 AI 구현을 위한 긴급 절차를 시작하는 것입니다. 그러나 긴급 상황에서 적합성 평가를 수행하는 것은 포함되지 않습니다. 아울러 인권을 보호하고 인공지능 애플리케이션의 남용을 방지하기 위한 권한을 부여하기 위한 구체적인 조치도 마련됐다.

또한 임시 협약의 본문에는 공공 장소에서 실시간 원격 생체 인식 시스템을 사용하는 이유를 법 집행상의 이유에 한해 명확하게 명시하고 있으며 당국은 예외적인 상황에서만 그렇게 할 수 있습니다. 타협 협정은 추가적인 안전 장치를 제공하고 이러한 예외를 용의자를 살해한 경우로 제한하여 실제 위협이 있는 경우에만 수색이 수행되도록 보장하고 테러리스트 공격과 가장 심각한 범죄를 저지른 것으로 의심되는 경우 수색을 방지합니다.

  • 일반 인공지능 시스템 및 기본 모델

인공지능 시스템이 다목적으로 사용되는 시나리오, 즉 일반 인공지능과 독립 시스템에 대해 새로운 규정이 제정되었습니다. 또 다른 고위험 시스템인 자율주행차는 일반 인공지능과 통합된다. 과도기 계약에는 GPA(GPAI)도 포함됩니다. GPA 감독은 계약의 핵심 부분입니다.

텍스트 생성, 비디오 분할, 자연어 처리, 코드 렌더링 및 기타 다양한 컴퓨터 작업과 같은 복잡한 활동에서 기능을 입증할 수 있는 시스템으로 설명된 기본 모델도 마무리되었습니다. 임시 합의에서는 기본 모델이 판매되기 전에 오염 제거 요구 사항을 충족해야 합니다. "효과가 큰" 기본 모델을 구축하는 데 필요한 정책은 훨씬 더 엄격합니다. 대규모 규모와 고도로 발전된 복잡성, 기능 및 능력을 갖춘 이러한 평균 데이터 모델은 비즈니스 가치 사슬 전반에 걸쳐 시스템적 위험을 초래할 수 있습니다. 이러한 위험은 참여하는 모든 기업이 공유합니다.

  • 새로운 거버넌스 구조

새로운 GPAI 모델에 대한 제한과 EU 차원의 표준화된 모니터링의 필요성에 따라 위원회는 이러한 최첨단 기술을 감독하기 위해 고유한 인공 지능 사무국을 설립했습니다. 모든 회원국의 사양 및 테스트 절차 수립과 주요 규칙 시행을 촉진하는 AI 모델입니다. 기술 전문가로 구성된 독립적인 과학 그룹은 기본 모델 및 기술 역량을 평가하는 방법을 개발하고, 시장 출시를 준비하면서 GPAI 상태 및 기본 모델을 평가하고, 잠재적으로 기본과 관련된 문제를 모니터링함으로써 모델 크기 조정에 대해 GPAIAI 사무국에 조언을 제공합니다. 모델. 재료 안전.

이를 위해 회원국으로 구성된 인공 지능 위원회는 위원회의 조정 플랫폼이자 자문 기관으로서 회원국이 해당 분야의 규정을 구현하는 데 두드러지고 핵심적인 역할을 할 수 있도록 해야 합니다. 기본 모델의 실천 강령입니다. 마지막으로 업계 관계자, 중소기업, 스타트업, 시민사회, 대학 등으로 대표되는 개별 이해관계자들이 참여하는 포럼이 마련될 예정입니다. 이는 AI위원회가 사용할 수 있는 기술적 지식을 제공할 수 있다.

  • 벌금

인공지능법을 위반한 기업을 입력하여 제재합니다. 최소 벌금은 일정 금액이며, 최대 벌금은 전년도 글로벌 연간 매출액의 일정 비율입니다. 위에서 언급한 인공지능 애플리케이션을 위반하면 3,500만 유로(7%)의 벌금이 부과되고, 인공지능법에 따른 의무를 위반하면 1,500만 유로(3%)의 벌금이 부과됩니다. 오해의 소지가 있는 정보에는 750만 유로(1.5%)의 벌금이 부과됩니다. 그럼에도 불구하고 임시 합의에는 중소기업과 스타트업이 인공지능법 조항을 준수하기로 약속할 때 영향을 덜 미치는 특별 벌금이 포함되어 있습니다.

인공지능법의 간결한 합의에 따르면 자연인 또는 법인은 관련 시장 감시 기관에 공식 불만을 제기할 권리가 있습니다. 또한, 기관은 상기 불만 사항을 처리할 때 구체적이고 규정된 절차를 따라야 합니다.

  • 기본권의 투명성 및 보호

특히, 임시 계약에서는 AI 시스템 배포자가 고위험 시스템을 시장에 출시하기 전에 최종 사용자 보호 장치에 대한 권리 영향 평가를 수행하도록 요구합니다. 이 임시 합의는 또한 정교한 인공 지능과 자동화된 진실 탐지 시스템의 광범위한 사용을 위한 좋은 출발점을 제공합니다. 이를 통해 시스템 구현 범위가 명확해집니다. 특히, 제안된 위원회의 규정 중 일부는 EU 데이터베이스에 고위험 AI 기계 학습 시스템을 등록한 고위험 AI 시스템의 다양한 임시 정부 사용자를 참조하도록 수정되었습니다. 이 외에도 업데이트된 제품군은 감정 인식 시스템을 운영하는 사용자에게 시스템에 노출되면 알려주는 메시지도 보냅니다.

  • 혁신 지원 조치

규정의 이 부분은 혁신을 장려하기 위해 크게 개정되었습니다. 이는 전 세계에 걸쳐 혁신을 보장하기 위해 지속적으로 적응하는 보다 과학적인 혁신 프레임워크를 구축하려는 위원회 제안의 중요한 측면입니다. EU는 해당 범위 내에서 지속 가능한 규제 환경을 구축합니다.

새로운 AI 시스템의 개발, 테스트 및 검증을 위한 통제된 환경을 보장하도록 설계된 요청 시 AI 규제 샌드박스를 통해 실제 조건에서 기관을 테스트할 수도 있습니다. 또한 AI 시스템이 실제 환경에서 테스트되는 경우 특정 조건에서 시스템을 사용할 수 있도록 새로운 제한 사항이 활성화되었습니다. 이번 임시 협약은 중소기업의 행정부담을 경감하고, 저소득 중소기업에 대한 지원방안을 마련하기 위한 것이다. 그러한 경우 법적으로 제한되고 엄격하게 구체적인 경우에는 변형이 허용됩니다.

  • 발효일

인공지능 관리에 관한 임시 협정은 특정 예외를 제외하고 인공지능법 조항이 발효일로부터 2년 동안 적용되도록 규정하고 있습니다.

위 내용은 인공지능 규제에 관한 EU 협정 살펴보기의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제