首页 >科技周边 >人工智能 >DeepFake捏脸真假难辨,汤姆·克鲁斯比本人还像本人!

DeepFake捏脸真假难辨,汤姆·克鲁斯比本人还像本人!

PHPz
PHPz转载
2023-04-13 09:16:051016浏览

在世界上最受欢迎的社交媒体平台之一TikTok上,源源不断的Deepfake视频正在冒出来。这些视频对拍摄对象的面部或身体进行了数字化改造,让用户完全变成了另一个人。当然啦,大家一般都是换名人的脸。就比如,TikTok上的这位@deeptomcriuse,已经发布了数十个假冒汤姆·克鲁斯的deepfake视频,并且有了360万粉丝。

图片

好家伙,这相似度,是汤姆·克鲁斯本人看了也懵逼的程度。

在另一个Deepfake视频中,一个fake的扎克伯格承认了自己对于窃取用户大数据的野心。

图片

「想象一下:当一个人手握数十亿人的数据,他就掌握了他们的生活和未来……Spectre让我知道,谁掌握了数据,谁就掌握了未来。」请记住,以上这些话都不是小扎说的。仔细看原版和翻版的视频,的确真假难辨……

在这个恶搞视频中,基努·里维斯刚刚制止了一场持枪抢劫。

图片

而这位马斯克中国分克甚至骗过了马斯克本尊。

图片

错的不是技术,而是人

虽然在大多时候,Deepfake被网友们用来搞怪,但令人担忧的是,越来越多人在用这门技术进行虚假宣传、欺诈、抹黑公众人物。Deepfake很好地融合了文本、图像和镜头处理。与绿屏和计算机生成图像相比,它为视觉插入提供了更便宜、更精致的技术。本来这项技术在诞生的伊始,寄托着创造者的美好愿望,比如帮助人们哀悼和怀念逝去的亲人。

图片

这么明显的恶搞,一般人都不会信。但如果是那种似是而非的视频呢?

2019年,英国保守党方面疑似在选举中伪造工党国会议员Keir Starmer接受电视采访时口齿不清的视频。

图片

而DeepNude 2.0(现已停用)被用来让穿着衣服的女性在镜头中呈现裸体,经常被用于报复和敲诈。此外,Deepfake还经常被用于诈骗。当信赖的朋友或亲戚打来视频电话向你借钱,你大概率会中招。一项研究发现,2020 年使用数字技术进行的诈骗使美国金融机构损失了200亿美元。

Deepfake很容易,立法很难

DeepFake的创作者强调,如果想让这些换脸视频看起来更加真实,就要花费大量的时间和精力。

然而DeepFake也确实在变得越来越容易。随着更多DeepFake应用程序的开发,在未来,哪怕是技术水平不高的人也能越来越容易地制作出看起来很逼真的DeepFake视频。

图片

只要想想在过去的十年里,ps是怎么蓬勃发展的,就大概能预测到DeepFake未来的发展了。而立法、监管和检测软件正在努力跟上DeepFake的蓬勃发展。2019年,Facebook因未能删除政治家Nancy Pelosi的合成视频而受到批评,因为它不符合其对DeepFake的定义。2020年,Twitter和TikTok禁止分享可能会欺骗、迷惑或伤害他人的合成视频(除非标清楚是DeepFake)。而YouTube则是下架了所有与2020年美国联邦选举有关的DeepFake视频。

但是,即使这些政策有意引导,平台管理员也很难及时处理每一条上报的视频。在澳大利亚,新南威尔士州的Ashurst公司的律师表示,现有的版权和相关法律可能无法保护澳大利亚人免受DeepFake的影响。虽然国外已经开始尝试制定法律规整这个领域,但这些法律大多都集中在政治传播方面。例如,加利福尼亚州规定,在选举期间张贴或传播经过数字处理的候选人内容是非法的。但不从政的人并不受这条法律的保护。而最好的补救措施之一,就是让用户尽量掌握辨别的技巧。

我们能做什么?

通常情况下,能让DeepFake露馅的第一个迹象是,有些东西看着似乎不对劲。

如果是这样,就要更仔细地观察被拍者的脸,想一想:脸部是否太光滑,或有不寻常的颧骨阴影?

图片

眼睑和嘴巴的动作是否看起来不连贯或不自然?

图片

头发看起来是真的吗?

要知道,目前的深度造假技术很难保持头发(尤其是面部毛发)的原始外观。你可以在网上搜索该视频或视频中人物的关键词,因为许多可疑的DeepFake视频已经被揭穿了。试着判断一下来源的可靠性——它看起来是真的吗?如果视频发布在社交媒体平台上,那么发帖人的账户是否经过了验证?你还可以对播放的视频进行截图,并进行谷歌反向图片搜索,检查视频的原始版本是否存在,将其与可疑的版本进行对比。最后,如果你确实发现了一个DeepFake的视频,一定要记得点举报。

以上是DeepFake捏脸真假难辨,汤姆·克鲁斯比本人还像本人!的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文转载于:51cto.com。如有侵权,请联系admin@php.cn删除