최근에는 특히 DALL-E나 Midjourney와 같은 여러 대규모 언어 모델 및 이미지 생성기가 출시된 이후 생성 인공 지능 도구에 대한 논의가 늘어나고 있습니다.
이러한 발명품은 일반 인공 지능(GPAI)을 다시 한 번 조명했으며 GPAI를 규제해야 하는지에 대한 가상적인 질문을 다시 한 번 제기했습니다.
가능성을 더 자세히 살펴보기 전에 먼저 GPAI의 개념, 의미, 도입 시기 등을 이해하세요.
2년 전인 2021년 4월, 유럽연합 집행위원회는 일반 인공지능을 출시했습니다. 원래 AI 법안 제안에서는 일반 인공지능 제작자가 여러 법적 장치 및 기타 책임 기준을 준수하지 않도록 면제했습니다.
그 이유는 고위험 AI에만 적용되기 때문인데, 이는 목적과 맥락에 따라 법안에 명확하게 언급되고 설명됩니다.
또 다른 규정인 28조는 이러한 주장을 뒷받침하며 AGI 개발자가 고위험 사용을 위해 AI 시스템을 대폭 조정하거나 개발하는 경우에만 규정 준수에 대한 책임을 져야 한다고 권장합니다.
그러나 최근 보고서에 따르면 유럽 의회는 원래 AGI 제공업체에 대한 특정 "의무"도 고려하고 있습니다.
EU 인공 지능법의 기본 목적은 인공 지능을 사용하는 시스템을 개발하고 배포하는 데 관여하는 다양한 행위자 체인을 분류하고 분류하는 것입니다.
일반 인공 지능에 대한 인공 지능법의 접근 방식은 글로벌 인공 지능의 피해를 해결하기 위한 규제 기조를 확립하는 데 이상적입니다. 최근 제너레이티브 AI에 대한 대중의 관심이 높아지면서 규제 입장이 현안 문제에 과도하게 적용될 위험도 있습니다.
놀랍게도 ChatGPT, dall-e2, Bard와 같은 새로운 혁신은 실제로 문제가 되지 않으며 단지 빙산의 일각에 불과합니다.
추천: 책임 있는 AI - 규제 환경에서 윤리적 모델을 채택하는 방법
먼저 이해해야 할 것은 일반 인공 지능은 거대한 범주이므로 적용하는 것이 논리적이라는 것입니다. 챗봇과 LL.M.에 국한되지 않고 광범위한 기술 분야에 집중합니다.
EU 인공 지능 법안이 본질적으로 미래 지향적인지 확인하려면 훨씬 더 큰 규모를 다루어야 합니다. 첫째, GPAI에 대한 적절한 설명에는 다른 인공 지능 시스템의 기반이 될 수 있는 많은 기술("작업")이 포함되어야 합니다.
EU 이사회는 이를 다음과 같이 정의합니다.
“제공자는 이미지 및 음성 인식, 오디오 및 비디오 생성, 패턴 감지, 질문 답변, 번역 등과 같은 일반적으로 적용 가능한 기능을 수행할 의도입니다. "
일반 인공지능은 광범위한 피해를 일으킬 수 있습니다
이러한 위험은 애플리케이션 계층에서 완전히 극복할 수는 없지만 다양한 AI 시스템에 해를 끼칠 수 있다는 점은 부인할 수 있습니다. 그리고 참가자가 영향을 미친다는 사실. 우리는 AI 규제에 대한 일반적인 접근 방식을 개발하면서 AI 기술의 현재 상태, 적용 및 작동 방식을 고려해야 합니다.
예를 들어 일반 AI 모델은 성적, 인종적, 종교적 소수자를 대상으로 한 증오심 표현 등 반민주적 담론을 생성할 위험이 있습니다. 이러한 모델의 위험은 기본 데이터에 대한 제한적이거나 왜곡된 관점을 확고히 한다는 것입니다.
일반 인공지능이 이해관계자의 다양성을 고려하기 위해서는 애플리케이션 계층뿐만 아니라 제품 라이프사이클 전반에 걸쳐 관리되어야 합니다. 개발의 첫 번째 단계는 매우 중요하며, 이러한 모델을 만드는 기업은 활용하는 정보와 아키텍처 결정에 대해 책임을 져야 합니다. AI 공급 네트워크의 기존 아키텍처를 통해 참가자는 개발 계층의 감독 부족으로 인한 결과적 책임을 피하면서 원격 다운스트림 애플리케이션에서 효과적으로 이익을 얻을 수 있습니다. 여기에는 데이터를 수집하고 정리하고 주석을 추가하는 프로세스뿐만 아니라 모델을 생성하고 테스트하고 평가하는 프로세스도 포함됩니다.
AGI 제작자가 기본적인 법적 고지 사항을 사용하여 책임을 면제하는 것은 불가능합니다. 이 접근 방식은 원래 개발자의 모든 책임을 면제하고 모든 위험을 관리할 능력이 없는 하위 행위자에게 책임을 전가하는 위험한 취약점으로 이어질 수 있습니다. 위원회는 AGI 개발자가 지침에서 모든 고위험 사용을 제외하고 시스템이 남용되지 않도록 보장하는 한 모든 책임을 면할 수 있도록 하는 일반적인 접근 방식에 대한 예외를 가지고 있습니다.
권장 사항: 숨겨진 AI 편견을 찾아내고 해결하고 폭로하기
일반 AI 모델, 특히 위험 전반에 걸쳐 인공 지능 모델을 평가하기 위한 기본적이고 통합된 문서 관행은 진행중인 연구 분야. 피상적인 체크박스 연습을 방지하려면 규제를 통해 좁은 평가 방법을 방지해야 합니다.
일반 인공지능 시스템은 구현되거나 대중에게 공개되기 전에 세심한 경계, 검증 및 검사를 거쳐야 합니다. 일반 인공지능 모델을 AI 법안의 범위 내로 가져오려는 최근 제안은 미래 특정 표준(위원회가 결정)의 개발을 연기하거나 AI 법안의 문구에서 그렇게 하려고 시도합니다.
예를 들어 합의 사회에서는 프로토타입을 제작하여 커뮤니티 전체가 사용하는지 아니면 소규모 커뮤니티에서 사용하는지에 따라 가능한 영향의 분포가 달라질 수 있습니다.
EU 인공지능법은 최초의 광범위한 AI 법률이 될 예정이며, 언젠가는 모든 국가의 통일된 표준이 될 것입니다. 그렇기 때문에 인공지능 분야를 맡아 누구나 따를 수 있는 글로벌 템플릿으로 변환하는 것이 중요합니다.
위 내용은 일반 인공지능에 대해 알아야 할 사항의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!