▲引发关注的AI合成图片及相关捐赠页面。图/网络平台截图
人工智能(AI)应用再引争议。
据媒体报道,成都一慈善组织在其网络众筹募捐页面中使用了AI技术合成的照片。经民政部门核实后,该组织进行了相应整改。
该慈善组织在接受媒体采访时声称,他们使用合成照片是为了保护受捐者的隐私。然而,媒体报道中的许多细节令人难以相信这一解释的真实性。
需要注意的是,在该募捐项目中使用合成照片与描述性文字形成了匹配对应关系。例如,一张媒体披露的截图显示,合成照片的下方有明确的详细描述文字,如“80多岁的周奶奶照顾瘫痪伴侣”等。
在未标记合成照片的情况下,图片和文字的组合方式可能会误导读者。这不仅仅是合成照片使用不当的问题,还涉嫌利用合成照片误导募捐者。
实际上,为了保护隐私,对真实照片进行技术处理是一个可行的选择,无需合成虚假人物特写。
因此,令人深感困惑的解释和具有误导性的暗示,使得公众对该项募捐的真实性产生更多怀疑。
就动机而言,提高传播效果对于许多慈善募捐活动至关重要。事实上,许多成功的慈善案例都取决于大众传播。
例如,我国公益史上经典的“大眼睛女孩”案例,在成功打动公众的同时,也成功引发了社会对于女童助学问题的关注。
借助多种传播技术来提高慈善募捐活动的知名度,一直是很多慈善公益组织的核心运行目标。
如果对比其他公益组织、众筹平台的类似募捐项目,AI通过对经典特写照片的模仿训练生成的照片,质量明显要胜过普通人自行提供的照片。
低廉的生产成本,加上较高的图像质量,二者结合带来的传播效果提升,或许正是让该慈善组织不惜铤而走险,违背慈善真实性来使用合成照片的主要原因。
当前,通过AI对内容生产的效率与质量进行规模化提升,已经成为了很多有传播需求的个人、企业与组织广泛考虑采用的一种应用方案。
但比起商业海报、内容视频等正常应用,慈善公益应用AI作为传播效果提升工具,仍然需要极其慎重,甚至在没有形成明确规范和社会共识的当前情况下,应主动拒绝使用这一技术。
这是因为,真实性是公益慈善行业的生命线。一旦公益慈善的真实性存在任何瑕疵,不仅会引发公众质疑,还会对慈善行业乃至社会的整体公信力产生反噬作用。
慈善依托于公众互助的爱心,而公众爱心需要建立在真实基础上,其对真实性的要求,远高于普通行业。
而AI技术与虚假信息之间的关系与界限,在社会层面仍然没有得到妥善解决。因此,公众对于合成照片等新技术生成的内容始终存有较高顾虑。
换句话说,当人们看到AI生产的文章、照片、视频,都会本能地产生不真实、甚至是“被骗”的感觉。在此情况下,应用AI技术来提升慈善行业的效率,无疑是适得其反。
因此,在尚存争议的新技术面前,慈善或许应该跟进得更慢一些。在社会尚未对AI内容进行明确划分与规定之前,最好不要使用AI来生产相关素材。
如果必须使用,也应当做到全部公开透明,避免公众对AI技术本身的担忧,变成了对慈善行业的质疑,进而伤及社会公共利益。
撰稿 / 马尔文(媒体人)
编辑 / 何睿
校对 / 李立军
以上是用合成照片募捐,滥用AI只会伤害慈善行业 | 新京报快评的详细内容。更多信息请关注PHP中文网其他相关文章!