欢迎光临KOTOO财情




DeepFakes假造女星A片门槛低,恐掀起假造影片风气

2024-05-03 241

本文出自合作媒体“爱范儿”经授权刊登于本站,作者:李超凡

《神力女超人》主演Gal Gadot“无码三级片”流出,《哈利·波特》赫敏扮演者Emma Watson“床照”曝光,女神寡姐史嘉蕾·乔韩森“下海”拍片……乍一看还以为好莱坞“艳照门”曝光了,正当宅男们搬好小板凳准备好好清洁一下屏幕时,可能就会发现有什么不妥。因为这都是视频通过AI技术合成的,国外论坛Reddit上一位叫“deepfakes”的用户利用AI工具将这些好莱坞女星的脸“换”到了色情影片的演员身上。

DeepFakes

(Gal Gadot的脸被换到一个色情影片的演员上)

一开始这只是deepfakes 的“自娱自乐”,可如今事件逐渐开始失控。

这些AI 工具被做成了每个人都可以下载安装的应用,于是一大批“名人色情电影”开始在互联网上流传,而一些用户甚至将身边的同学朋友变成了色情电影中的主角。

还记得前段时间让不少家长瑟瑟发抖是儿童邪典视频吗?这些针对儿童制作的动画或真人短片,充斥着血腥暴力和软色情的内容。

Reddit 上的一篇文章曝光了这些儿童邪典视频的幕后制作过程,将此事在互联网上彻底引爆。而这次Reddit 成了“AI 换脸色情电影”滋长的温床。

儿童邪典视频偃旗息鼓了,全民DIY 色情影片的热潮却开始了。

近几年人工智能大潮方兴未艾,霍金和埃隆·马斯克预言的那个AI 毁灭人类的世界或许不会到来,但AI 引起的伦理道德危机和法律问题,已经成了这个互联网世界不得不面对的问题。

 

女神怎么成了色情影片的女主角?

去年12 月,一段神力女超人主演Gal Gadot的“成人短片”在Reddit 上出现,引来众多网友围观。

这段影片的制作者是一个网名为deepfakes的程序员,他在业余时间用家里的电脑和开源的AI工具,通过机器学习算法,将Gal Gadot的脸“移植”到一位色情电影演员身上。

沉迷于此的deepfakes 无法自拔,更多女明星纷纷中招。除了Gal Gadot,泰勒·斯威夫特、Emma Watson、史嘉蕾·乔韩森和麦茜·威廉姆斯(《权利游戏》的二丫)都是deepfakes 的得意之作。

(“中招”的明星们)

又是软件工程师,又是机器学习,看起来很有技术含量。实际上并非如此,deepfakes在接受科技媒体Motherboard采访时表示,自己不是专业的AI研究人员,只是一个对机器学习感兴趣的工程师。

而deepfakes 制作这些视频所用到的工具和素材,都是在互联网免费开放的。他使用的软件技术是基于TensorFlow 和Keras 等开源软件,而视频素材则是通过Google 图片搜索、公开图库和Youtube 等平台获取。

deepfakes 利用这些工具和素材进行深度学习网络的训练,经过反复训练后,系统就可以正确识别出Gal Gadot的面部信息,自动将色情影片中的人脸替换成Gal Gadot的脸。

一位人工智能研究人员表示,像deepfakes制作的这类视频的所需的硬件配置并不高,只需要一个消费级显卡,花费几小时就能达到这样的效果。

据deepfakes 在Reddit 上的介绍,他使用的算法与 NVIDIA 的一种AI 算法类似,这种算法是生成式对抗网络(Generative Adversarial Network)。

顾名思义,这是由“敌对”的两个机器学习模型组成。一个负责生成视觉数据,另一个负责鉴别,以此提高生成图像视频的真实性。NVIDIA 利用这种算法让计算机根据夏天的场景视频生成同一地点的冬季风光。

不过如果仔细观看deepfakes 制作的影片,还是会发现很多破绽。比如在模拟Gal Gadot的这段视频中,可以看到人物脸部轮廓有一条分界线,两边的肤色也不一致。在脸部运动时尤为明显,感更像是戴上了一个逼真的人皮面具。

(左:P得看不出破绽,右:破绽明显,图自:果壳网

可作为一个程序员在业余时间的作品,这样的效果也算不错了。实际上,类似的“换脸”技术也不新鲜,而且在电影业等商用领域,可以实现的效果还要逼真得多。

你可能还记得《魔戒》里的咕噜、《猩球崛起》里表情丰富的凯撒,甚至是郭敬明那部《爵迹》里众多的面瘫角色,这些形像都是通过对肢体动作和面部表情的动作捕捉实现的。

(《魔戒》中咕噜扮演者,当时的造型是这样的,图自:naturevideo)

这样的技术在影视工业领域的应用已经十分成熟,但一般成本较高,耗费时间长。比如面部捕捉需要在演员脸上贴满追踪点,用头戴式高速摄影机捕捉面部肌肉动作,最后在后期转为CG 画面。

此外通过 CGI 技术甚至可以在大屏幕“复活”已经去世的演员,比如在拍摄《玩命关头7》中意外去世的保罗·沃克就是通过这种技术重现在大屏幕中。

近几年随着人工智能技术的发展,这样的面部捕捉技术也不再是电影行业的专利。去年7月份,美国华盛顿大学的研究者们就利用人工智能以及数位图像合成技术,生产了一段真假难辨的奥巴马演讲视频

(你能分辨哪个才是真的奥巴马吗?图片来源:YouTube

而一款基于人工智能技术的实时视频仿真软件Face2Face 也能做到类似的效果,使用者只需在软件中输入一个人脸说话的录像,就可以通过算法分析生成对应的人脸模型,之后套用该模型就可以生成以假乱真的人物形象。

(Face2Face工作原理,图自:YouTube

Face2Face开发者Justus Thies在当时已经意识到了这项技术的危险性,他在一次接受采访的时候表示

如果这类视频软件得到广泛应用的话,将会对社会造成剧烈的影响。这也是为什么我们不把软件代码开源的原因之一。如果让不成熟的人接触到这类软件,将会大大提升网络霸凌的等级。

遗憾的是,这个潘多拉魔盒已经被打开了。

Deepfakes 超低门槛,全民DIY 色情影片

自从一些媒体报导了deepfakes 制作的“名人色情影片”后, deepfakes 继续制作著这些视频,并获得了给你更多人的关注,其在Reddit 上的专栏在不到两个月内就聚集了超过15000 名用户。

其中一名位“deepfakeapp”用户不满足于只是观看deepfakes制作的视频,基于deepfakes所用的算法,制作了一款简单易用的应用程序FakeApp,让每个用户都可以利用手中的数据伪造色情影片。

在维基百科上,FakeApp 的词条是这样描述的:

FakeApp 是一款社区开发型的桌面应用程序,无需安装Python 和Tensorflow 等编程语言和开源软件库就能运行,不过需要 CUDA 支持的一个高性能的GPU 才能顺利运行。

如果用户没有合适的GPU 也没关系,通过Google 云服务租用这种GPU 即可。

deepfakeapp 表示只要只要一两个目标人物的高清视频, 8到12小时可以制作一条自动换脸的色情影片,超低的门槛让一大批用户加入到这种视频的制作和分享中。

Justus Thies 的预言一语成谶,超低门槛的工具让这项技术走向不可控。

很快在Reddit 上就涌现了一大批“名人色情影片”,爱范儿梳理了一下Reddit 上被用于伪造色情影片的女明星,其中Emma Watson(《哈利波特》)、娜塔莉·波特曼(《这个杀手不太冷》)和史嘉蕾·乔韩森(黑寡妇)是被用到较多的明星。

而部分视频的仿真度甚至比起deepfakes 一开始制作的视频还要高,大家可以简单感受一下:

Gal Gadot

(伪造视频)

真人)

 

Emma Watson

(伪造视频)

(真人)

 

史嘉蕾·乔韩森

(伪造视频)

(真人)

 

娜塔莉·波曼

(伪造视频)

(真人)

不少“名人色情影片”的制作者还会在Reddit上交流制作心得,一位“UnobtrusiveBot”利用FakeApp将女星Jessica Alba (《惊奇四超人》)的脸放到了一位色情影片演员上:

超级快!只需要学习如何重新训练模型,大约5 小时就搞定了。

(Jessica Alba )

而这正是FakeApp开发者deepfakeapp的初衷,他在Reddit上表示

我之所以开发FakeApp,就是为了让没有技术背景和编程经验的人都可以用上这种技术。

当然也不是所有用户都那么顺利,比如这位叫“MrDrPresidentNotSure”的用户就翻车了。

这些视频被当成是真的在色情网站上传播,在一个专门泄露名人隐私照和视频的网站CelebJihad,有人上传了一段Emma Watson洗澡的视频,并声称这是其收藏的独家视频。实际上这段视频就是deepfakes 发布在Reddit 上的视频。

更要命的是,就像直播答题的火爆让答题助手应运而生,一些辅助伪造色情视频制作的AI 工具也诞生了。

这些工具可以用于帮助用户找到与目标人物匹配的色情影片演员,比如这款叫“Porn Star By Face”的工具,声称是首个基于深度神经网络的面部识别搜索引擎,只要你上传想要用于伪造色情影片的女明星照片,系统就会自动匹配到相似度最高的色情影片演员。

爱范儿用两位女神的照片测试了一下,发现结果其实也并不理想。

类似这样的平台还有很多,其中一个叫“Face By Porn”的平台表示其数据库中共有2347 名色情电影演员,是从Pornhub、YouPorn 等色情网站上抓取的。

(左为《古墓丽影》的Lara Croft,右为成人影片演员)

视频分析平台Pulsar的数字媒体总监Jay Owens在接受Motherboard采访表示

这样的视频在社交和文化层面都有比较强的渗透性,基于社交平台的娱乐属性,那些“名人色情影片”拥有了更好的传播效果。

 

下一个被“不可描述”的可能就是你

事情发展到这还远没有结束,此前一些视频用的都是公众人物的素材,一些吃瓜群众还看得挺过瘾。

可当这样的事情发生你自己、亲人和朋友身上时,你还会这样想吗?

在社交软件Discord 的一个名为“deepfakes”的聊天小组,一些用户称他们正在利用身边的熟人和朋友的素材制作这种伪色情视频。其中一位用户表示,他利用的素材来自高中女同学的Instagram 和Facebook 账号中的公开照片。

而在Reddit 上,每天都能看到不少制作这种视频的教材和求教程的用户。而决定将这项技术用在什么人身上,全凭使用者的意愿。

在如今的社交网络,要找一个人的照片资料十分简单。这几乎注定了普通人也会成为这项技术的受害者,甚至会出现一种更为严重的性骚扰行为。

此前在Facebook 上已经出现了非常严重的“复仇色情”现象,所谓“复仇色情”,就是某些人在分手后为了报复将前女友裸照上传到网络平台上的行为。

目前Discord已经关闭“deepfakes”这个聊天小组,可是在只要这种技术还是如此容易获取,这样的视频和对普通人造成的伤害还会互联网的某个角落再次发生。

 

“AI 色情”泛滥,难道就不能避免吗?

看了上面的介绍,你可能会有这样一个疑问:

这样一个侵犯公民人身权利、传播淫秽色情影像的平台和技术,难道不能对其采取法律手段打击吗?

很遗憾,还真未必可以。

一方面,虽然美国大部分州都将卖淫定位非法行为,但对于成人电影书刊等色情作品的判断标准比较复杂,就算是红果果的爱情动作片也未必会被法院定为色情作品,这与美国宪法第一修正案的言论自由权有关,在这里就先不展开叙述了。

(在一些成人影片开头,还会有来自FBI 的版权声明)

另一方面,这样未经同意使用他人照片制作这种视频确实涉嫌侵犯了公民肖像权等权利,但是在美国的法律中还存在很大的灰色空间。

迈阿密大学法学院教授Mary Anne Franks在接受《Wired》杂志采访时表示,那些被用来制作色情视频的名人或许有机会维权,但对于普通人来说希望渺茫,因为就算是针对“色情报复”的法律也不适用于这种“AI色情视频”。

这些视频所涉及的技术,反而为他们的制作者提供了巨大的法律保障。

马里兰大学的法学教授Danielle Citron 也对此略显无奈。打击这种视频传播的责任只能落在了众多互联网平台身上。

(Reddit 中deepfakes 帖子的18 岁准入提醒,可是形同虚设)

更糟糕的是,随着人工智能技术的发展,这项技术将无可逆转地日趋完善,甚至到达机器也无法区分的程度。

所幸人们已经开始意识到这项技术的危害性,一些平台开始开发对应的屏蔽机制。正如弗吉尼亚大学工程学院应用伦理学名誉教授Deborah Johnson 所说

这项技术的创新之处在于将AI 生成的脸做到难辨真假的效果,而这项技术的可怕之处在于社会中每个人都能轻易使用这种技术。

这样的技术正在让世界变得不稳定,甚至这个社会商业以及信用体系也随之崩塌。

虽然这样的视频在中国还没出现,但如何更好地与新科技相处,是每个时代每个社会都需要思考的问题。

2018-01-31 02:50:00

标签:   资讯头条 kotoo科技资讯 kotoo科技 kotoo科技资讯头条 科技资讯头条 KOTOO商业产经 新闻网 科技新闻网 科技新闻 Kotoo科技新闻网 Kotoo Kotoo科技新闻网 科技新闻网 新闻网 KOTOO商业产经 科技资讯头条 kotoo科技资讯头条 kotoo科技 kotoo科技资讯 资讯头条 Kotoo Kotoo科技新闻网 科技新闻网 新闻网 KOTOO商业产经 科技资讯头条 kotoo科技资讯头条 kotoo科技 kotoo科技资讯 资讯头条
0