5월 7일 뉴스, 지난 주 OpenAI가 이탈리아 규제 기관을 성공적으로 달래어 챗봇 ChatGPT에 대한 임시 금지를 해제했지만 인공 지능 연구 회사와 유럽 규제 기관의 싸움은 아직 끝나지 않았습니다. 이제 막 시작했어요.
OpenAI의 인기 있지만 논란의 여지가 있는 챗봇인 ChatGPT는 올해 초 이탈리아에서 큰 법적 장애물에 부딪혔습니다. 이탈리아 데이터 보호 당국(GPDP)은 OpenAI가 EU 데이터 보호 규칙을 위반했다고 비난했습니다. 회사는 이 문제를 해결하기 위해 이탈리아에서의 서비스 이용을 제한하는 데 동의했습니다.
4월 28일 ChatGPT가 이탈리아에서 다시 출시되었으며 OpenAI는 서비스를 크게 변경하지 않고도 이탈리아 데이터 보호 당국의 우려 사항을 쉽게 해결했습니다. 이는 OpenAI의 확실한 승리입니다.
이탈리아 데이터 보호 당국은 ChatGPT의 변경 사항을 "환영"하지만 OpenAI 및 챗봇을 개발하는 다른 회사가 직면한 법적 문제는 이제 막 시작되었을 수 있습니다. 여러 국가의 규제 당국은 승인되지 않은 교육 데이터 수집부터 챗봇이 잘못된 메시지를 내보내는 경향에 이르기까지 다양한 이유를 언급하면서 이러한 인공 지능 도구가 데이터를 수집하고 정보를 생성하는 방식을 조사하고 있습니다.
유럽 연합은 세계에서 가장 강력한 개인 정보 보호 법률 프레임워크 중 하나인 일반 데이터 보호 규정(GDPR)을 시행하기 시작했으며 이는 유럽을 훨씬 넘어 영향을 미칠 수 있습니다. 동시에 EU 국회의원들은 특히 인공지능을 겨냥한 법안을 마련하고 있으며, 이는 ChatGPT와 같은 시스템 규제의 새로운 시대를 열 가능성이 높습니다.
ChatGPT는 많은 사람들의 관심의 대상이 되었습니다
ChatGPT는 생성 인공 지능(AIGC)에서 가장 많이 시청되는 애플리케이션 중 하나이며, 사용자 프롬프트에 따라 텍스트, 이미지, 비디오 및 오디오를 생성하는 다양한 도구를 다룹니다. . 보고서에 따르면, ChatGPT는 2022년 11월 출시된 지 불과 두 달 만에 월간 활성 사용자 수 1억 명에 도달하여 역사상 가장 빠르게 성장하는 소비자 애플리케이션 중 하나가 되었습니다.
ChatGPT를 사용하면 사람들은 텍스트를 다른 언어로 번역하고, 대학 논문을 작성하고, 코드를 생성할 수도 있습니다. 그러나 규제 기관을 포함한 일부 비평가들은 ChatGPT가 출력하는 신뢰할 수 없는 정보, 저작권 문제 및 데이터 보호의 단점을 지적합니다.
이탈리아는 ChatGPT에 대해 조치를 취한 최초의 국가입니다. 3월 31일, 이탈리아 데이터 보호 당국은 OpenAI가 ChatGPT가 부정확하거나 오해의 소지가 있는 정보를 제공하도록 허용하고, 사용자에게 데이터 수집 관행을 알리지 않고, 개인 데이터 처리에 관한 규정을 준수하지 않고, 개인 데이터 처리에 대한 규정을 준수하지 않음으로써 일반 데이터 보호 규정을 위반했다고 비난했습니다. 13세 미만의 어린이가 서비스를 사용하는 것을 적절하게 방지합니다. 이탈리아 데이터 보호 당국은 OpenAI에 ChatGPT의 훈련 데이터에서 이탈리아 시민으로부터 수집한 개인 정보 사용을 즉시 중단하라고 명령했습니다.
현재 다른 나라에서는 이와 같은 큰 조치를 취하지 않았습니다. 그러나 3월부터 독일, 프랑스, 스페인 등 최소 3개 EU 국가가 ChatGPT에 대한 자체 조사를 시작했습니다. 한편, 대서양 건너 캐나다에서는 개인 정보 보호 및 전자 문서법(PIPEDA)에 따라 ChatGPT의 개인 정보 보호 문제를 평가하고 있습니다. 유럽 데이터 보호 위원회(EDPB)는 조사를 조정하기 위해 전담 실무 그룹을 구성하기도 했습니다. 이러한 기관에서 OpenAI 변경을 요구하는 경우 회사가 전 세계 사용자에게 서비스를 제공하는 방식에 영향을 미칠 수 있습니다.
규제 기관에는 두 가지 주요 우려 사항이 있습니다.
ChatGPT에 대한 규제 기관의 가장 큰 우려 사항은 주로 두 가지 범주로 나뉩니다. 훈련 데이터는 어디에서 오는가? OpenAI는 어떻게 사용자에게 정보를 전달하나요?
ChatGPT를 지원하려면 OpenAI에서는 인간이 생성한 대량의 텍스트에 대해 훈련된 GPT-3.5 및 GPT-4 LLM(대형 언어 모델)을 사용해야 합니다. OpenAI는 정확히 어떤 훈련 텍스트를 사용하는지에 대해서는 신중을 기하지만 "공개적으로 이용 가능한 개인 정보를 포함할 수 있는 다양한 승인되고 공개적으로 이용 가능한 데이터 소스"를 활용한다고 밝혔습니다.
이는 일반 데이터 보호 규정에 따라 큰 문제를 일으킬 수 있습니다. 2018년에 제정된 이 법은 서비스를 제공하는 조직의 소재지에 관계없이 EU 시민에 대한 데이터를 수집하거나 처리하는 모든 서비스에 적용됩니다. 일반 데이터 보호 규정은 기업이 개인 데이터를 수집하기 전에 사용자로부터 명시적인 동의를 얻고, 데이터를 수집해야 하는 법적으로 유효한 이유를 갖고, 데이터가 사용 및 저장되는 방식에 대해 투명하게 공개할 것을 요구합니다.
유럽 규제 당국은 OpenAI의 훈련 데이터의 기밀성으로 인해 OpenAI가 사용하는 개인 정보가 원래 사용자의 동의를 받았는지 확인할 수 없다는 것을 의미한다고 주장합니다. 이탈리아 데이터 보호 당국은 OpenAI가 애초에 정보를 수집할 수 있는 “법적 근거”가 없다고 주장했습니다. 지금까지 OpenAI와 다른 회사들은 거의 조사를 받지 않았습니다.
또 다른 문제는 개인정보 보호법의 '잊혀질 권리'입니다. 이는 사용자가 회사에 개인정보의 정정을 요구하거나 전체 삭제를 요청할 수 있는 권리입니다. OpenAI는 이러한 요청에 보다 쉽게 대응할 수 있도록 개인정보 보호정책을 미리 업데이트했습니다. 그러나 특정 데이터가 대규모 언어 모델에 입력되면 분리가 얼마나 복잡해질 수 있는지를 고려하면 그것이 기술적으로 가능한지 여부는 항상 논쟁의 여지가 있습니다.
OpenAI는 사용자로부터 직접 정보도 수집합니다. 다른 인터넷 플랫폼과 마찬가지로 이름, 연락처, 신용카드 정보와 같은 표준 범위의 사용자 데이터를 수집합니다. 그러나 더 중요한 것은 OpenAI가 ChatGPT와의 사용자 상호 작용을 기록한다는 것입니다. 공식 웹사이트에 명시된 바와 같이 OpenAI 직원은 이 데이터를 보고 모델 교육에 사용할 수 있습니다. 봇을 치료사 또는 의사로 생각하는 등 사람들이 ChatGPT에 묻는 개인적인 질문을 고려하면 이는 회사가 모든 종류의 민감한 데이터를 수집하고 있음을 의미합니다.
이 데이터에는 미성년자에 대한 정보가 포함될 수 있습니다. OpenAI의 정책에는 "13세 미만 어린이로부터 고의로 개인 정보를 수집하지 않는다"고 명시되어 있지만 엄격한 연령 확인 기준은 없습니다. 이는 13세 미만 미성년자의 데이터 수집을 금지하고 일부 국가에서는 16세 미만 미성년자로부터 정보를 수집하려면 부모의 동의를 요구하는 EU 규정과 일치하지 않습니다. 출력 측면에서 이탈리아 데이터 보호 당국은 ChatGPT에 연령 필터가 없기 때문에 미성년자가 "자신의 발달 수준과 자기 인식 측면에서 절대적으로 부적절한 응답을 받을 수 있다"고 주장했습니다.
OpenAI는 이 데이터를 자유롭게 사용할 수 있어 많은 규제 기관이 우려하고 있으며 이 데이터를 저장할 때 보안 위험이 있습니다. 삼성과 JPMorgan Chase를 포함한 회사들은 민감한 데이터를 업로드할 수 있다는 우려로 직원들이 AIGC 도구를 사용하는 것을 금지했습니다. 실제로 이탈리아가 금지령을 내리기 전에 ChatGPT는 심각한 데이터 유출로 인해 수많은 사용자의 채팅 기록과 이메일 주소가 노출되었습니다.
또한 ChatGPT의 허위 정보 제공 경향도 문제를 일으킬 수 있습니다. 일반 데이터 보호 규정은 모든 개인 데이터가 정확해야 한다고 규정하고 있으며, 이는 이탈리아 데이터 보호 기관이 발표에서 강조한 사항입니다. 이는 대부분의 AI 텍스트 생성기에 문제를 일으킬 수 있습니다. 이러한 도구는 "환각", 즉 쿼리에 대해 실제로 부정확하거나 관련 없는 응답을 제공하는 경향이 있기 때문입니다. 이로 인해 호주 시장이 ChatGPT가 뇌물 수수로 투옥되었다고 허위 주장한 후 명예 훼손으로 OpenAI를 고소하겠다고 위협하는 등 다른 곳에서 실제 문제가 발생했습니다.
전문 규제 규칙 도입 예정
ChatGPT는 인공지능 시장의 인기와 지배력으로 인해 특히 규제 대상에 취약합니다. 그러나 Google의 Bard 및 Microsoft의 OpenAI 기반 Azure AI와 같은 경쟁사 및 파트너와 마찬가지로 면밀히 조사하지 말아야 할 이유가 없습니다. ChatGPT 이전에 이탈리아에서는 챗봇 플랫폼인 Replika가 미성년자에 대한 정보를 수집하는 것을 금지했습니다. 현재로서는 플랫폼이 금지되어 있습니다.
일반 데이터 보호 규정은 강력한 법률이지만 AI 고유의 문제를 해결하기 위해 만들어진 것은 아닙니다. 그러나 전용 규제 규칙이 나올 수도 있습니다. 2021년 유럽연합은 일반 데이터 보호 규정과 함께 시행될 인공지능법(AIA)의 첫 번째 버전 초안을 제출했습니다. AI법은 "최소 위험"(스팸 필터 등)부터 "고위험"(법 집행이나 교육에 사용되는 AI 도구), "사용할 수 없음"까지 위험 수준에 따라 AI 도구를 규제합니다. (사회 신용 시스템 등).
ChatGPT와 같은 대규모 언어 모델이 폭발적으로 증가한 후, 국회의원들은 이제 "기본 모델" 및 "일반 인공 지능 시스템(GPAI)"에 대한 규칙을 추가하기 위해 안간힘을 쓰고 있습니다. 두 용어 모두 LLM을 포함한 대규모 AI 시스템을 나타내며 "고위험" 서비스로 분류될 수 있습니다.
인공지능법의 조항은 데이터 보호 이상의 의미를 갖습니다. 최근 제안된 수정안은 회사가 AIGC 도구를 개발하는 데 사용된 모든 저작권 자료를 공개하도록 강제합니다. 이로 인해 한때 비밀이었던 데이터 세트가 노출되고 더 많은 기업이 침해 소송에 취약해질 수 있으며, 이는 이미 일부 서비스에 영향을 미쳤습니다.
AI 전문법은 2024년 말까지 통과될 수도 있습니다
현재로서는 이 법안을 시행하는 데 다소 시간이 걸릴 수 있습니다. EU 국회의원들은 4월 27일 임시 인공지능 법안에 대한 합의에 도달했지만 위원회는 여전히 5월 11일 초안에 투표를 해야 하며 최종 제안은 6월 중순에 발표될 것으로 예상됩니다. 그러면 유럽이사회, 유럽의회, 유럽연합 집행위원회는 법을 시행하기 전에 남아 있는 모든 분쟁을 해결해야 합니다. 순조롭게 진행된다면 2024년 하반기에 통과될 수도 있다.
현재 이탈리아와 OpenAI 간의 분쟁을 통해 규제 기관과 AI 회사가 어떻게 협상할 수 있는지 처음으로 살펴볼 수 있습니다. 이탈리아 데이터 보호 당국은 OpenAI가 4월 30일까지 몇 가지 제안된 결의안을 충족하면 금지 조치를 해제할 것이라고 밝혔습니다.
이러한 결의안에는 ChatGPT가 데이터를 저장하고 사용하는 방법을 사용자에게 알리고, 이 데이터를 사용하려면 사용자의 명시적인 동의를 요구하고, ChatGPT에서 생성된 허위 개인 정보의 수정 또는 삭제를 촉진하고, 이탈리아 사용자가 등록할 때 자신을 식별하도록 요구하는 것이 포함됩니다. 계정이 18세 이상입니다. OpenAI는 이러한 규정에 미치지 못했지만 이탈리아 규제 기관을 만족시켰으며 이탈리아에서 액세스를 복원했습니다.
OpenAI는 9월 30일까지 더 엄격한 연령 기준 설정, 13세 미만 미성년자 필터링, 나이가 많은 미성년자에게 부모 동의 획득 요구 등 기타 조건을 충족해야 합니다. 실패하면 OpenAI가 다시 금지될 수 있습니다. 그러나 OpenAI는 적어도 새로운 법률이 도입되기 전까지는 유럽이 AI 기업의 행동을 수용 가능한 것으로 간주하는 사례를 보여준 것으로 보입니다. (샤오샤오)
위 내용은 이탈리아에서 온라인으로 돌아왔지만 OpenAI의 규제 문제는 이제 막 시작되었습니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!