인공지능과 미성년자 보호의 발전
강력한 생성 인공 지능의 급속한 발전에 대응하여 유네스코는 올해 5월 25일 이 주제를 주제로 첫 번째 글로벌 교육 장관 회의를 개최했습니다. 생성 인공지능의 전례 없는 개발 기회와 위험 및 과제에 대한 포괄적이고 객관적인 분석은 미성년자의 건강한 성장을 보장하기 위한 시대의 시급한 제안이자 미성년자 보호 및 개발을 구현하는 핵심 부분이기도 합니다.
원문 : "생성인공지능이 온다, 미성년자를 보호하는 방법"
저자 | 북경사범대학교 언론홍보학과 Fang Zengquan/연구원 Yuan Ying/강사 Qi Xuejing/조연구원
사진 |네트워크
생성 인공 지능(AIGC)은 2022년 상위 10대 과학 혁신 중 하나입니다. 이 결과는 사이언스 매거진에 게재되었습니다. 생성적 인공지능은 강력한 논리적 추론과 재학습 능력을 보여주고, 인간의 요구를 더 잘 이해할 수 있으며, 자연어 처리의 병목 현상을 돌파하고, 사회 지식 생산 시스템, 인재 양성 시스템, 비즈니스 모델, 사회적 분업 시스템을 재구성합니다. 등은 사회 모든 분야에 막대한 발전 기회를 가져왔지만 심각한 위험에도 직면해 있습니다. 현재 미성년자들은 다양한 방식으로 인공지능 기술과 상호작용해 왔으며, 이러한 기술은 종종 장난감, 애플리케이션, 비디오 게임에 내장되어 미성년자의 건강한 성장에 자신도 모르게 영향을 미치고 있습니다. 미성년자의 정신과 인지능력은 아직 성숙되지 않았기 때문에 지능적인 환경에 쉽게 영향을 받습니다. 따라서 생성 인공지능의 전례 없는 개발 기회와 위험 및 과제에 대한 포괄적이고 객관적인 분석은 미성년자의 건강한 성장을 보장하기 위한 시대의 시급한 제안이자 미성년자 보호 및 개발을 구현하는 핵심 부분이기도 합니다.
생성 인공지능이 가져온 기회와 도전
개발 기회 측면에서 인공 지능 기술은 미성년자가 교육을 배울 수 있도록 안내하는 도구입니다. 생성 인공 지능 기술에 의존하면 교육이 더욱 목표화되고 효과적이게 됩니다. 생성적 인공지능은 교육의 개인차와 지역적 격차를 해소하고, 교육 자원의 보편적 형평성을 촉진하며, 개인과 지역 간의 디지털 격차를 어느 정도 좁힐 수 있습니다. 생성 인공지능은 또한 미성년자의 혁신적이고 창의적인 능력 향상을 촉진할 것입니다. 대규모 모델의 출현은 로우 코드 및 노 코드 개발 도구 사용에 대한 임계값을 더욱 낮추고 새로운 지능형 개발 기술의 탄생을 촉발할 수 있습니다.
미성년자는 생성 인공 지능이 영향을 미치기 때문에 인지, 사고 및 행동 능력에 어려움을 겪게 됩니다. 첫째, 허위정보의 확산이다. 사실의 정확성을 지속적으로 향상하려면 긴급한 기술 혁신이 필요합니다. 두 번째는 데이터 유출 문제이다. 현재 데이터 유출로 인해 일부 사용자의 대화 데이터 및 관련 정보가 손실되었습니다. 특히, 현재 생성형 인공지능 애플리케이션에는 사용자의 연령을 체계적으로 검증할 수 있는 설계가 부족하여 미성년자가 "나이와 의식에 완전히 불균형한" 콘텐츠에 노출되어 신체적, 정신적으로 악영향을 미칠 수 있다는 점을 유의하는 것이 중요합니다. 건강. 세 번째는 내장된 알고리즘 차별 문제이다. 생성 인공지능이 제시하는 답변 중 일부는 성차별적이고 인종차별적이어서 사용자가 차별적인 답변을 '정답'으로 착각하고 잘못된 결정을 내리게 하여 사회인식과 윤리에 부정적인 영향을 미칠 수 있다. 특히 알고리즘 포괄성 문제를 다룰 때 중국과 서양 문화의 기원과 진화 경로가 다르기 때문에 전통 문화와 현실 관찰 간의 해석, 평가, 보급 문제도 포함되며, 이는 모두 생성 인공 지능에서 중요한 역할을 할 수 있습니다. 지능은 기술에서 무시되거나 의도적으로 증폭됩니다. 넷째, 지적재산권 침해 문제이다. 이미지이든 큰 텍스트 모델이든 실제로는 저작권 관련 위험과 숨겨진 위험이 많이 있습니다. 훈련 데이터는 언론사 및 사진 갤러리 딜러의 권리와 이익 등 타인의 저작권을 침해할 수 있습니다. AI가 생성한 노래, 기사 또는 기타 저작물에 저작물이 사용된 콘텐츠 제작자에게 보상을 제공하는 방법에 대한 특별히 적절한 해결책은 현재로서는 없습니다. 원작자의 저작권을 보장하기 어려운 경우 인공지능 콘텐츠 생태계의 지속가능하고 건전한 발전이 훼손될 수 있습니다. 다섯째, 정보격차 문제이다. 영어와 중국어에서는 대규모 언어 모델의 성능에 상당한 차이가 있으며, 쓰기, 표현, 이해 능력은 일반적으로 영어 상황에서 더 강하다는 것이 분명합니다. 중국어와 영어의 차이와 데이터 매튜 효과가 결합해 격차가 더 벌어질 수도 있다. 여섯째, 네트워크 보안 위험입니다. 여기에는 자해를 암시하거나 조장하는 그래픽 자료, 외설적이거나 폭력적인 콘텐츠, 괴롭히고 경멸하고 증오하는 콘텐츠가 포함되나 이에 국한되지 않습니다.
생성 인공지능을 위한 CI-STEP 시스템
2020년 9월 유니세프는 어린이 친화적인 인공지능이 따라야 할 세 가지 주요 원칙을 제안한 "어린이를 위한 인공지능 - 정책 지침" 초안을 발표했습니다. 보호, 즉 "해를 끼치지 않는다"는 의미입니다. 좋은 일을 한다', 참여한다는 것은 '포용적이다'를 의미합니다. 2021년 11월 유니세프는 아동 권리 보호를 위한 AI 정책 및 시스템 구축에 관한 권고사항 2.0을 발표했습니다. 이 보고서는 아동 권리 보호를 위한 AI의 세 가지 기반을 제안했습니다. 인공지능 정책과 시스템은 아동의 필요와 권리를 보호하도록 설계되어야 합니다. 아이들은 AI의 개발과 사용에 기여할 수 있는 권한을 부여받아야 합니다. AI 기술을 어떻게 활용해 현재와 미래의 미성년자들의 성장에 유익한 환경을 조성할 수 있을지가 전 세계적으로 화제다. 이후 중국, 미국, 유럽연합, 영국도 미성년자를 위한 인공지능 기술 관리를 더욱 표준화하고 개선하기 위해 관련 법률과 규정을 순차적으로 도입했다.
피아제의 아동 지적 발달 단계 이론과 콜버그의 도덕 발달 단계 이론을 우리나라의 관련 법률 및 정책과 결합하여 - "중화인민공화국 개인정보 보호법", "중화인민공화국 네트워크 보안법" " "중화인민공화국 데이터 보안법" 등 및 미국, 유럽 연합, 영국 및 기타 국가 및 지역의 관련 정책 문서, 학교 미성년자 인터넷 리터러시 연구 센터 베이징 사범대학교 저널리즘 커뮤니케이션은 국내 최초의 생성적 인공지능 미성년자 보호 및 개발 평가(CI-STEP) 지표 시스템을 발표했으며, 생성적 인공지능의 미성년자 보호에 대한 중요한 참고 및 평가 지표를 제공합니다(아래 그림 참조).
생성인공지능 미성년자 보호 및 개발 평가(CI-STEP) 지수 시스템
이 지표 모델에는 구체적으로 종합 관리, 정보 단서, 과학적 대중화 및 홍보 교육, 기술 보호, 긴급 민원 및 신고 메커니즘), 개인 정보 보호 및 개인 정보 보호 시스템(개인 정보 보호 및 개인 정보 보호 시스템)이 포함되며 각 차원에는 2~3개의 특정 항목이 포함됩니다. 미성년자의 권리와 이익을 보호하기 위한 과학적이고 포괄적인 정보를 제공하기 위해 총 15개의 평가 지표를 제공하고 평가 개념과 실무 지침을 제공합니다.
첫째, 시간관리, 권한관리, 소비관리 등 종합적인 관리 측면에서요. 시간 관리는 미성년자의 사회적 상호 작용, 시나리오, 사용 등을 기반으로 합리적이고 적절한 온라인 시간을 결정하고 중독 방지 요구 사항을 구현하는 것입니다. 권한 관리는 연령을 확인하는 검증 메커니즘을 설정하는 것입니다. 시스템에서 설정한 보안 규칙이나 보안 정책에 따라 미성년자는 권한이 부여된 리소스에만 액세스할 수 있습니다. 소비 관리는 불공정하고 기만적인 비즈니스 관행을 금지하고, 편견과 속임수를 제한하기 위해 필요한 보호 조치를 취하고, 기업, 소비자 및 공공 안전에 대한 심각한 위험을 방지해야 하는 생성적 인공 지능 제품 또는 서비스입니다.
두 번째는 개인 정보 팁, 연령에 맞는 팁, 위험 팁을 포함한 정보 팁입니다. 미성년자가 인터넷을 통해 개인정보를 공개하는 경우 즉시 알림을 발령하고 필요한 보호 조치를 취해야 합니다. 연령에 적합한 알림은 생성 인공 지능 제품 또는 서비스 제공자가 관련 국가 규정 및 표준에 따라 인공 지능 제품을 분류하고, 연령에 적합한 알림을 제공하며, 미성년자가 부적절한 제품 또는 서비스에 노출되지 않도록 기술적 조치를 취해야 함을 의미합니다. 일부 생성 인공 지능 제공업체에서는 사용자가 AI 도구를 사용하려면 18세 이상이거나 부모의 동의가 있는 13세 이상이어야 합니다. 그러나 현재 검증 옵션 및 구현 메커니즘을 개선해야 합니다. 위험 경고는 생성 인공 지능 제품 또는 서비스가 법률 및 규정의 요구 사항을 준수하고 사회 윤리, 공공 질서 및 선한 관습을 존중해야 하며 사기, 테러, 왕따, 폭력, 음란물, 편견과 같은 불법 콘텐츠에 대해 경고를 제공해야 함을 의미합니다. , 차별 및 유도 정보.
세 번째는 과학의 대중화와 홍보 및 교육입니다. 생성 인공지능 제품이나 서비스 제공자는 기술 분야에서 선도적인 위치에 있으며 미성년자 관련 주제 교육, 사회 실천, 전문 경험, 인턴십 점검 등을 지원하고 산업 특성에 따라 미성년자의 과학적 대중화를 조직해야 합니다. 그리고 혁신적인 실천 활동.
넷째, 실명정보 등록, 불량정보 필터링, 네트워크 보안 수준 보호 등 기술적 보장에 관한 사항입니다. "중화인민공화국 사이버보안법" 및 기타 관련 규정에 따라 사용자는 시스템에 실제 신원 정보를 제공해야 합니다. 생성 인공지능 제품 또는 서비스 제공자는 이용자가 미성년자의 신체적, 정신적 건강에 유해한 내용이 포함된 정보를 게시 또는 유포한 사실을 발견한 경우, 해당 정보의 유포를 즉시 중단하고 삭제 등 폐기 조치를 취해야 합니다. , 링크 차단 및 연결 해제. 생성 인공 지능 제품 또는 서비스 제공자는 네트워크 보안 수준 보호 시스템의 요구 사항에 따라 보안 보호 의무를 수행하여 간섭, 파괴 또는 무단 액세스로부터 네트워크를 보호하고 네트워크 데이터가 누출되거나 도난당하거나 변조되는 것을 방지해야 합니다.
다섯번째는 긴급 민원 및 신고 메커니즘입니다. 생성 인공지능 제품 또는 서비스 제공업체는 사용자 불만사항 접수 및 처리를 위한 메커니즘을 구축하고, 불만사항 및 신고 방법 등의 정보를 공개하고, 개인정보의 정정, 삭제, 차단 요청을 신속하게 처리하고, 다음 사항에 대한 비상 계획을 수립해야 합니다. 네트워크 보안 사고가 발생하면 시스템 취약점, 컴퓨터 바이러스, 네트워크 공격, 네트워크 침입, 데이터 중독, 신속한 단어 삽입 공격 및 기타 보안 위험을 적시에 처리해야 합니다. 상응하는 시정 조치를 취하십시오.
여섯번째는 개인정보보호 및 개인정보보호 시스템입니다. 생성 인공 지능 제품 또는 서비스 제공업체는 개인 정보 수집 및 사용에 대한 규칙, 개인 정보 및 개인 권리를 보호하는 방법, 미성년자의 개인 정보를 처리하는 방법, 개인 정보가 전 세계적으로 전송되는 방법 및 업데이트 방법을 명확히 해야 합니다. 개인 정보 보호 정책. 생성 AI 제품 또는 서비스 제공업체는 서비스 판매, 사용자 프로필 광고 또는 구축, 가능한 경우 훈련 데이터 세트에서 개인 정보 제거, 개인 정보 요청 거부를 위한 모델 미세 조정, 퍼블리시티권, 평판 훼손 방지를 위해 데이터를 사용할 수 없습니다. 권리와 개인정보 보호, 개인정보 및 개인정보의 불법 취득, 공개, 사용을 금지합니다.
우리는 앞으로도 보호와 발전에 동등한 관심을 기울여야 합니다
생성 인공 지능과 미성년자 보호라는 중요한 문제에 있어서 우리는 '아동 중심', '아동 권리 보호', '책임을 다함'이라는 개념을 바탕으로 보호와 발달에 동등한 관심을 기울여야 함을 주장해야 합니다. 및 "다자간 거버넌스"를 통해 생성 인공 지능을 촉진하여 미성년자 발전의 새로운 원동력이 되고, 인공 지능 시대에 미성년자의 포괄적이고 건강한 성장을 달성하도록 돕습니다. 선을 위한 기술 개념의 지침에 따라 생성 인공 지능 기술의 개발은 미성년자에게 가장 유익한 것이 무엇인지 원칙을 준수해야 하며 미성년자의 네트워크 보안과 디지털 발전을 고려하고 AI 기술 적용에 중점을 두어야 합니다. 과학기술윤리를 준수하고, 인터넷 기업이 산업 공동 거버넌스에 적극적으로 참여하도록 장려합니다.
향후 생성 인공지능의 적용은 크게 4가지 이슈에 초점을 맞춰야 합니다. 첫째, 기술 표준을 구현합니다. 앞으로 생성 인공 지능 분야의 미성년자 보호 및 개발은 기업 R&D 활동 감독, 생성 인공 지능 감독 및 개입, 인공 지능 모델 개발 및 출시에 대한 승인 및 테스트 요구 사항 제시에 중점을 두어야 합니다. 둘째, 평가의무를 명확히 한다. 생성 인공지능 제품의 적용에 대한 연구개발 기관 및 네트워크 플랫폼 사업자의 보안 위험 평가 의무를 명확히 하고, 연구개발 기관 및 네트워크 플랫폼 사업자가 해당 제품을 시장에 출시하기 전에 보안 위험 평가를 실시하여 다음 사항이 보장되도록 할 필요가 있습니다. 위험은 통제 가능합니다. 셋째, 콘텐츠 위험에 중점을 둡니다. 규제 기관과 네트워크 플랫폼 운영자는 규제 기술을 더욱 개선하고 여러 당사자가 관련 생성 인공 지능 제품의 개발 및 홍보에 참여하도록 장려하여 생성 인공 지능 기술로 생성된 콘텐츠를 표준화해야 합니다. 넷째, AI 리터러시 육성 생태계를 구축한다. 미성년자의 인지, 정서, 행동 능력 발달의 단계별 특성에 따라 초중등 기초교육을 초중등 기초교육으로 의무교육 단계에서 '정보기술' 등 교과 내용과 교수법 혁신을 강화한다. 정부주도, 학계, 기업이 공동으로 구축한 인공지능 공공서비스 플랫폼은 인공지능 문해교육과 혁신적인 실천활동을 촉진하고, 고품질 교육자원의 균형 있는 공유를 촉진하며, 정보격차와 불평등의 악화를 방지하는 주요 위치를 차지합니다. , 더욱 포용적이고 공정하며 개방적인 교육 환경을 조성합니다.
본 글은 사회과학저널 1857호 2호에 게재된 글입니다. 글의 내용은 작성자의 의견일 뿐입니다. 본 신문의 입장을 대변하지 않습니다.
본호 편집자: 왕리야오
확장 독서
인재강국 | 인공지능 시대, "학습자 중심의 정밀교육"
신뢰할 수 있는 인공지능 개발 메커니즘 확립
위 내용은 생성 인공지능이 온다, 미성년자를 보호하는 방법은? 사회과학저널 |의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!