首页  >  文章  >  科技周边  >  生成式人工智能来了,如何保护未成年人? | 社会科学报

生成式人工智能来了,如何保护未成年人? | 社会科学报

WBOY
WBOY转载
2023-06-12 17:34:021513浏览

人工智能与未成年人保护发展

为了应对强大的生成式人工智能的迅猛发展,联合国教科文组织于今年5月25日首次就此议题举行了全球教育部长会议。全面客观地分析生成式人工智能前所未有的发展机遇和风险挑战,是保障未成年人健康成长亟待解决的时代命题,也是落实未成年人保护和发展的关键一环。

生成式人工智能来了,如何保护未成年人? | 社会科学报

原文:《生成式人工智能来了,如何保护未成年人》

作者 | 北京师范大学新闻传播学院 方增泉/研究员 元英/讲师 祁雪晶/助理研究员

图片 |网络

生成式人工智能(AIGC)位列2022年度科学十大突破,这一成果在《科学》杂志上发布。生成式人工智能表现出了极强的逻辑推理和再学习能力,能够更好地理解人类需求,突破了自然语言处理的瓶颈,重塑了社会知识生产体系、人才培养体系、商业模式、社会分工体系等,为社会各领域带来了巨大的发展机遇,同时也面临着严峻的风险。目前,未成年人已经以多种方式与人工智能技术进行交互,这些技术往往被嵌入到玩具、应用程序和视频游戏中,不知不觉影响着未成年人的健康成长。由于未成年人心智、认知能力等尚未成熟发展,他们很容易受到智能环境的影响。因此,全面客观地分析生成式人工智能前所未有的发展机遇和风险挑战,是保障未成年人健康成长亟待解决的时代命题,也是落实未成年人保护和发展的关键一环。

生成式人工智能带来的机遇和挑战

在发展机遇方面,人工智能技术是引导未成年人学习教育的工具,依托生成式人工智能技术将使教育更有针对性、更具成效。生成式人工智能可以弥合教育中的个体差异和区域差距,推动教育资源的普惠公平,一定程度上缩小个体和区域间的数字鸿沟。生成式人工智能还将促进未成年人创新创意的能力提升。大型模型的出现可能会进一步降低低代码和无代码开发工具的使用门槛,并且有可能引发全新的智能开发技术的诞生。

未成年人将面临认知、思维和行为能力等方面的挑战,因为生成式人工智能会对其产生影响。一是虚假信息泛滥问题。如何不断提高事实的准确性,亟待技术上的突破。二是数据泄漏问题。目前,数据泄漏已导致一些用户的对话数据和相关信息丢失。尤其需要注意的是,生成式人工智能应用目前缺失系统验证用户年龄的设计,有可能使未成年人暴露于“与其年龄和意识完全不相称”的内容下,对其身心健康产生不良影响。三是内嵌的算法歧视问题。生成式人工智能给予的一些答复存在性别歧视和种族歧视现象,可能会误导使用者,将具有歧视性的回答视为“正确答案”而作出错误决断,从而对社会认知和伦理产生负面影响。特别是在处理算法包容性的问题上,由于中西文化的根源及演进路径不同,还会涉及对传统文化和现实观照之间的解读、评价及传播的问题,这些都可能会在生成式人工智能技术中被忽视或被特意放大。四是知识产权侵犯问题。无论是图像还是文字大模型,其实都有不少版权相关的风险隐患,训练数据可能侵犯他人的版权,比如新闻机构、图库商的权益。对于作品被用于人工智能生成的歌曲、文章或其他作品的内容创作者如何得到补偿,目前还没有特别合适的破解之道。人工智能内容生态的可持续和健康发展将受到损害,如果原创者的版权难以确保。五是数字鸿沟问题。在英语和中文中,大型语言模型的性能存在显著的差异,很明显在英语语境下的写作、表达和理解能力普遍更强。中英文语系的差异加上数据马太效应,可能会使得差距越来越大。六是网络安全风险问题。包括但不限于建议或鼓励自残行为、色情或暴力内容,以及骚扰、贬低和仇恨的内容等图像材料。

生成式人工智能来了,如何保护未成年人? | 社会科学报

应对生成式人工智能的CI-STEP体系

2020年9月,联合国儿基会发布了《人工智能为儿童——政策指南》的征求意见稿,提出了儿童友好的人工智能应当遵循的三大原则:保护,即“不伤害”;赋能,即“为善”;参与,即“全纳”。2021年11月,联合国儿基会发布了《关于建立维护儿童权利的AI政策和系统的建议2.0》,提出了AI维护儿童权利的三个基础:人工智能政策和系统应旨在保护儿童;应公平地满足儿童的需求和权利;应授权儿童为人工智能的开发和使用做出贡献。全球探讨的热门话题是如何利用AI技术为未成年人现在和未来的成长创造有益环境。随即,中国、美国、欧盟、英国也陆续出台相关法律法规,进一步规范和完善面向未成年人的人工智能技术管理办法。

依据皮亚杰儿童智力发展的阶段性理论和科尔伯格的道德发展阶段论,结合我国的相关法规政策依据——《中华人民共和国个人信息保护法》《中华人民共和国网络安全法》《中华人民共和国数据安全法》等,以及美国、欧盟、英国等国家和地区的相关政策文件,北京师范大学新闻传播学院未成年人网络素养研究中心发布全国首个 生成式人工智能未成年人保护和发展评估(CI-STEP)指标体系,为生成式人工智能的未成年人保护工作提供重要的参考与评估指标(见下图)。

生成式人工智能来了,如何保护未成年人? | 社会科学报

生成式人工智能未成年人保护和发展评估(CI-STEP)指标体系

该指标模型具体包括综合管理(Comprehensive management)、信息提示(Information cue)、科学普及和宣传教育(Scientific popularization and publicity education)、技术保护(Technical protection)、应急投诉和举报机制(Emergency complaint and reporting mechanism)、隐私和个人信息保护制度(Privacy and personal information protection system)六大维度,每个维度下包含2~3项具体指标,共计15项评估指标,以期为维护未成年人权益提供科学、全面的评估理念和实践指导。

一是在综合管理方面,包括时间管理、权限管理和消费管理。时间管理是根据未成年人社交、场景、用途等确定合理和适度的上网时间,落实防沉迷要求。权限管理是设立检查年龄的验证机制,根据系统设置的安全规则或者安全策略,未成年人可以访问而且只能访问自己被授权的资源。消费管理是生成式人工智能产品或服务应禁止不公平和欺骗性的商业行为,采取必要的保障措施来限制偏见和欺骗,避免对企业、消费者和公共安全带来严重风险。

二是信息提示,包括私密信息提示、适龄提示和风险提示。如果未成年人通过网络发布私密信息,应及时发出提示并采取必要的保护措施。适龄提示是生成式人工智能产品或服务提供者应当按照国家有关规定和标准,对人工智能产品进行分类,作出适龄提示,并采取技术措施,不得让未成年人接触不适宜的产品或者服务。有的生成式人工智能提供者要求用户必须年满18周岁,或年满13周岁并在父母同意的情况下才能使用AI工具,但目前验证选项和落实机制亟待完善。风险提示是生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,对可能存在的诈骗、暴恐、欺凌、暴力、色情等不法内容,偏见歧视及诱导信息等进行提示。

三是科学普及和宣传教育。生成式人工智能产品或服务提供者在技术上处于领先位置,应为未成年人相关的主题教育、社会实践、职业体验、实习考察等提供支持,并结合行业特点,组织开展未成年人科学普及教育和创新实践活动。

第四点是关于技术保障,其中包括真实身份信息的注册,不良信息过滤以及网络安全等级的保护。根据《中华人民共和国网络安全法》等相关法规,要求用户向系统提供真实的身份信息。生成式人工智能产品或服务提供者发现用户发布、传播含有危害未成年人身心健康内容信息的,应当立即停止传播相关信息,采取删除、屏蔽、断开链接等处置措施。生成式人工智能产品或服务提供者应当按照网络安全等级保护制度的要求,履行安全保护义务,保障网络免受干扰、破坏或者未经授权的访回,防止网络数据泄露或者被窃取、篡改。

五是应急投诉和举报机制。生成式人工智能产品或服务提供者应建立用户投诉接收处理机制,公开投诉、举报方式等信息,及时处置个人关于更正、删除、屏蔽其个人信息的请求,并制定网络安全事件应急预案,及时处置系统漏洞、计算机病毒、网络攻击、网络侵入、数据投毒、提示词注入攻击等安全风险;在发生危害网络安全的事件时,立即启动应急预案,采取相应的补救措施。

六是隐私和个人信息保护制度。生成式人工智能产品或服务提供者应明确个人信息收集使用规则、如何保护个人信息与个人权利、如何处理未成年人的个人信息、个人信息如何在全球范围转移、隐私政策如何更新等制度规则。生成式人工智能产品或服务提供者不得使用数据来销售服务、做广告或建立用户档案,在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝对私人信息的请求,防止损害肖像权、名誉权和个人隐私,禁止非法获取、披露、利用个人信息和隐私。

生成式人工智能来了,如何保护未成年人? | 社会科学报

未来要坚持保护和发展并重

在生成式人工智能与未成年人保护这一重要议题上,我们要坚持保护和发展并重,在“儿童为中心”“保护儿童权利”“承担责任”和“多方治理”理念的指导下,促使生成式人工智能成为促进未成年人发展的新动能,助力实现人工智能时代未成年人的全面健康成长。在技术向善理念的指导下,生成式人工智能技术发展应当坚持最有利于未成年人的原则,兼顾未成年人网络安全和数字发展,注重AI技术应用符合科技伦理,鼓励互联网企业积极参与行业共治。

未来生成式人工智能的应用需要重点关注四大问题。第一,落实技术标准。生成式人工智能未成年人保护和发展在未来需要重点监管企业研发活动,对生成式人工智能进行监管和干预,对人工智能模型的开发和发布提出批准和测试要求。第二,明确评估义务。要明确研发机构和网络平台经营者对于生成式人工智能产品应用的安全风险评估义务,保证研发机构与网络平台经营者在将此类产品投入市场前必须进行安全风险评估,确保风险可控。第三,重点关注内容风险。监管机构与网络平台经营者要进一步提升监管技术,并鼓励多方参与相关生成式人工智能产品的研发和推广,从而规范生成式人工智能技术的生成内容。第四,构建AI素养培育生态系统。根据未成年认知、情感和行为能力的发展阶段性特点,加强义务教育阶段“信息科技”等课程内容、教学方式方法的创新,以中小学基础教育为主阵地,形成政府主导,学界和企业共同建设的人工智能公共服务平台,推进人工智能素养教育及创新实践活动,推动优质教育资源均衡共享,避免数字鸿沟和不平等现象加剧,创造更加包容、公平、开放的教育环境。

文章为社会科学报“思想工坊”融媒体原创出品,原载于社会科学报第1857期第2版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。

本期责编:王立尧

拓展阅读

人才强国 | 人工智能时代:“以学习者为中心的精准教育”

建立可信赖的人工智能发展机制 | 社会科学报

以上是生成式人工智能来了,如何保护未成年人? | 社会科学报的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:sohu.com。如有侵权,请联系admin@php.cn删除