>기술 주변기기 >일체 포함 >ChatGPT 및 Bard와 같은 생성 AI 봇을 규제하는 방법은 무엇입니까?

ChatGPT 및 Bard와 같은 생성 AI 봇을 규제하는 방법은 무엇입니까?

WBOY
WBOY앞으로
2023-04-08 12:31:031082검색

ChatGPT 및 Bard와 같은 생성 AI 봇을 규제하는 방법은 무엇입니까?

연구에 따르면 일반 인공 지능 도구의 광범위한 사용으로 인해 규제 기관이 처리하기 어려울 수 있는 새로운 과제가 발생하는 것으로 나타났습니다. 실제로 OpenAI의 챗봇 ChatGPT와 같은 생성 AI 도구를 규제하는 방법은 전 세계 정책 입안자들을 괴롭히는 문제가 되었습니다.

ChatGPT는 키워드를 통해 모든 유형의 콘텐츠를 생성할 수 있으며 많은 양의 지식을 입력하도록 훈련되었습니다. 해결책에는 위험 평가가 포함되며, 특히 그 중 일부는 면밀히 모니터링되어야 합니다.

ChatGPT 출시 두 달 만에 이 AI 챗봇은 올해 1월에만 활성 사용자가 1억 명이 넘을 정도로 역사상 가장 빠르게 성장하는 소비자 제품이 되었습니다. 이로 인해 전 세계 기술 대기업들이 AI 시스템 출시에 관심을 갖거나 이를 가속화했으며, 대화형 AI 분야에 새로운 활력을 불어넣었습니다.

Microsoft는 브라우저, 검색 엔진 및 광범위한 제품 범위에 대화형 AI를 내장하고 있습니다. Google은 Gmail 및 Google Cloud의 기타 통합을 통해 동일한 작업을 수행할 계획입니다. Baidu도 자체 챗봇 출시를 따르고 있습니다. ; Jasper 및 Quora와 같은 스타트업도 생성 및 대화형 AI를 주류 소비자 및 기업 시장에 도입하고 있습니다...

Generative AI는 규제 요구를 가속화합니다.

다양한 잘못된 정보와 어려움 발견된 피싱 이메일은 애플리케이션에 실질적인 위험을 초래합니다. AI를 의료정보로 활용하면 오진과 의료오류로 이어질 수 있다. 모델을 채우는 데 사용된 데이터가 다양하지 않은 경우에도 편향 위험이 높습니다.

Microsoft는 이미 보다 정확한 재교육 모델을 보유하고 있으며 AI21 Inc.와 같은 제공업체는 생성된 콘텐츠를 라이브 데이터에 대해 검증하기 위해 노력하고 있지만 "실제처럼 보이지만 완전히 부정확한" AI 응답을 생성할 위험이 여전히 높습니다.

유럽 연합 내부 시장 위원 Thierry Breton은 최근 다가오는 EU AI 법안에 ChatGPT 및 Bard와 같은 생성 AI 시스템에 대한 조항이 포함될 것이라고 밝혔습니다.

“ChatGPT가 보여주듯이 AI 솔루션은 기업과 시민에게 엄청난 기회를 제공할 수 있지만 위험을 초래할 수도 있습니다. 그렇기 때문에 고품질 데이터 AI를 기반으로 신뢰할 수 있는 솔루션을 보장하기 위한 견고한 규제 프레임워크가 필요합니다.”라고 그는 말했습니다.

AI 개발은 윤리적이어야 합니다.

분석 소프트웨어 제공업체인 SAS는 "AI와 책임 있는 혁신"이라는 보고서에서 AI가 제기하는 위험 중 일부를 설명했습니다. 보고서 작성자인 Kirk Borne 박사는 다음과 같이 말했습니다. “AI는 너무 강력하고 널리 퍼져서 AI가 생성하는 콘텐츠가 사실인지 거짓인지, 좋은지 나쁜지 판단하기가 점점 더 어려워지고 있습니다.

SAS 영국 및 아일랜드의 데이터 과학 책임자인 Iain Brown 박사는 정부와 업계 모두 AI가 해를 끼치기보다는 선을 위해 사용되도록 보장할 책임이 있다고 말했습니다. 여기에는 AI 모델 개발을 안내하기 위한 윤리적 프레임워크와 이러한 모델이 공정하고 투명하며 공평한 결정을 내릴 수 있도록 엄격한 거버넌스를 사용하는 것이 포함됩니다. AI 모델을 도전자 모델과 비교하고 새로운 데이터가 제공되면 이를 최적화할 수 있습니다.

다른 전문가들은 소프트웨어 개발자가 소프트웨어로 인한 위험을 줄여야 하며 가장 위험한 활동만이 더 엄격한 규제 조치를 받게 될 것이라고 믿습니다.

Ropes & Gray Data, 개인정보 보호 및 네트워크 보안 보조원인 Edward Machin은 이렇게 말했습니다. 겉보기에 하룻밤 사이에 나타나는 ChatGPT와 같은 기술은 특히 이미 규제가 어려운 AI와 같은 분야에서 규제 규제보다 빠르게 적용될 것입니다. “이러한 기술에 대한 규제 정책이 도입 되더라도 규제 접근 방식과 타이밍은 아직 지켜봐야 할 것 같습니다. AI 시스템 공급업체가 가장 큰 책임을 지게 되지만, 수입업체와 유통업체(적어도 EU 내)도 잠재적인 의무를 부담하게 됩니다. 이로 인해 일부 오픈 소스 소프트웨어 개발자가 어려움을 겪을 수 있습니다. 오픈 소스 개발자 및 기타 하위 당사자의 책임이 처리되는 방식은 이러한 개인의 혁신 및 연구 수행 의지에 냉담한 영향을 미칠 수 있습니다. ”

저작권, 개인 정보 보호 및 GDPR 규정

또한 Machin은 AI에 대한 전반적인 규제 외에도 AI가 생성하는 콘텐츠의 저작권 및 개인 정보 보호와 관련된 문제도 있다고 생각합니다. (있는 경우) 개인의 삭제 또는 수정 요청을 쉽게 처리하며 Alan Turing Research의 서비스 약관

을 위반할 수 있는 방식으로 제3자 사이트에서 대량의 데이터를 긁어낼 수 있는지 불분명합니다. AI 규제를 연구하는 뉴캐슬 대학의 법률, 혁신 및 사회 교수는 이러한 모델 중 일부는 GDPR 규정의 적용을 받을 것이며, 이로 인해 웹 사이트 소유자가 트래픽을 잃을 경우 훈련 데이터 또는 알고리즘 자체를 삭제하라는 명령을 받을 수 있다고 말했습니다. AI 검색은 현재 Google과 같은 검색 엔진을 지원하는 인터넷에서 대규모 데이터 수집이 종료됨을 의미할 수도 있습니다

가장 큰 문제는 이러한 AI 모델의 일반적인 특성이라고 지적했습니다. 이로 인해 최종 사용자가 해당 기술로 무엇을 할지 알기 어렵기 때문에 직면한 위험을 기반으로 초안이 작성된 EU AI법에 따라 규제하기가 어렵습니다. 유럽연합 집행위원회는 이러한 유형의 기술을 관리하기 위한 규칙을 추가하려고 노력하고 있습니다.

알고리즘 투명성을 높이는 것이 해결책이 될 수 있습니다. Edwards는 "빅 테크는 '우리는 미래의 모든 위험이나 사용을 상상할 수 없기 때문에 이러한 의무를 우리에게 부과할 수 없다'며 규제 기관에 로비를 시작할 것입니다."라고 말했습니다. 빅 테크 기업은 기본 알고리즘을 더욱 투명하게 만드는 등 어느 정도 도움을 주고 있습니다. 우리는 AI가 의사 결정을 내리고 콘텐츠를 생성하는 방식을 더 잘 이해하기 위해 개방성과 투명성을 향해 나아가기 위한 인센티브가 필요합니다.”

그녀는 또한 “이것은 사람들이 더 지루한 기술을 사용할 때 겪는 것과 같은 문제입니다. 기술은 글로벌하고 나쁜 의도를 가진 사람들은 어디에나 있기 때문에 일반적인 AI를 규제하는 것은 매우 어렵습니다.”라고 말했습니다.

AI 컨설팅 서비스 제공업체인 DragonFly의 최고 기술 책임자(CTO)인 Adam Leon Smith는 다음과 같이 말했습니다. "규제 당국은 AI 기술 제공업체의 투명성과 로깅을 의무화할 수 있습니다." 그러나 대규모 언어 모델(LLM)을 운영하고 배포하는 사용자만 해당됩니다. 특정 목적을 위한 시스템은 수동 감독이나 지속적인 모니터링을 통해 위험을 이해하고 완화 조치를 구현할 수 있습니다."라고 덧붙였습니다.

AI 규제가 임박했습니다

유럽연합 집행위원회 내에서 AI 규제에 관해 대규모 논의가 있어 왔으며, 데이터 규제 기관은 이를 진지하게 다루어야 합니다. 결국 Smith는 규제 당국이 이 문제에 더 많은 관심을 기울임에 따라 AI 제공업체가 사용자가 로그인하기 전에 법적 고지 사항을 발행하여 위험 기반 위치에 두는 것을 포함하여 기술을 "사용해서는 안 되는" 목적을 나열하기 시작할 것이라고 믿습니다. . 규제 조치의 범위를 벗어납니다.

Leon Smith는 AI 시스템 관리를 위한 현재 모범 사례에는 매우 빠르게 발전하고 있는 신흥 분야인 대규모 언어 모델이 거의 포함되지 않는다고 말했습니다. 이 분야에서 수행해야 할 작업이 많지만 많은 회사에서는 이러한 기술을 제공하고 이를 정의하는 데 도움을 주지 않습니다.

OpenAI의 최고 기술 책임자인 Mira Muratti는 생성 AI 도구를 규제해야 한다고 말했습니다. “우리와 같은 회사는 통제되고 책임감 있는 방식으로 대중에게 이를 알리는 것이 중요합니다.” AI 공급업체를 감독하는 것 외에도 규제 기관 및 정부의 투자를 포함하여 AI 시스템에 대한 더 많은 투자도 필요합니다. ”

위 내용은 ChatGPT 및 Bard와 같은 생성 AI 봇을 규제하는 방법은 무엇입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제