性是生产力。
Deepfake 这项技术从被人们所知悉到人人均可上手,发展程度之快出乎所有人的意料。究其根本,不过是因为 Deepfake 有一个绝佳的土壤——色情内容。
据 CNN 报道,在去年出现的 Deepfake 视频中,约 96% 为色情内容。这些视频全部以女性为主角,她们多是受人们喜爱的明星。这就是 Deepfake 的「魅力」所在,它能让明星也能为你「定制」色情内容,不只是一次性幻想,还可以是一个真实度极高的性爱视频。
▲ 用女星盖尔加朵的脸制成的 Deepfake 视频
如果帕丽斯希尔顿生在 2019 年,她恐怕很难大火。在性爱录影带如此易得的现在,即使真人上阵演一出极限动作片,也很难获得当年鼎盛的关注。
Deepfake 对人们的威胁正在扩大,它不只针对直接的女性受害者,也针对所有观看视频的人。
▲ 图片来自:Life2Coding
一切都在升级,一开始 Deepfake 只是技术人员的专属,复杂的代码让生成一个视频成本极高。
随着门槛的降低,斯嘉丽约翰逊、艾玛沃特森等明星通通「下海拍片」,每一个都是可怕的性爱录影带。现在,Deepfake 视频可以轻易地威胁到所有人,政界人物、你的邻居、你的女友……只要获得一张对方在社交网络的正面照片,生成一个专属的 Deepfake 视频是如此容易。它可能是一个性爱视频,也可能是一个假的政治演讲视频。
Deepfake 威胁着所有人。当你难以辨别真假时,你就会开始怀疑一切,同时也很容易被假视频所蒙骗。
▲ 图片来自:Giphy
为此,Adobe 在和美国国防部合作开发帮助判断图片真伪的工具;俄勒冈大学的研究人员想让动物帮我们鉴别伪造的视频和音频;还有的创业公司开始瞄准图像辨别生意,自动为照片加上时间和地点信息,提供相关真假信息确认。
技术正在寻求一种更为妥帖的解决方案,但一切的限制也需要法律法规的参与。
这一次,法律终于不再缺位。
上周,加州州长 Gavin Newsom 签署了两项新法令,其中一项是禁止任何人在选举 60 天内发布有关候选人的 Deepfake 视频。另一项法令则是允许该州居民起诉任何使用 Deepfake 技术将其图像放入色情视频的人。
▲ Gavin Newsom
它针对的是人们对 Deepfake 视频中争议最大的两个部分:色情和政治选举。
同样来自加州的议会代表 Marc Berman 认为 Deepfake 制成的视频有可能会成为误导选民做出选择的危险工具。
选民有权利知道他们所看到的这些视频、音频和图像在即将到来的选举中可能被操纵,这会影响他们进行投票,但这些内容并不代表现实。
▲ 图片来自:medium.com
但这真的就足够了吗?在限定时间内最大程度摒除 Deepfake 视频对选举的干扰就够了吗?允许受害人起诉那些未经允许就为自己制造了一段色情视频的人就够了吗?
这一切或许远远不够。
无辜被「拍摄」了一段 Deepfake 色情视频的女性只能通过漫长的诉讼流程来保证自己应有的权利,且全世界还只有加州有相关的法律支持你捍卫自己的权利。
这一切远远不够。
目前,网络安全专家 Deeptrace 已经发现了 14678 个 Deepfake 视频,视频数量比 2018 年首次统计增加了 84%,其中大部分都是人工制作的性爱录像带。有超过 1.3 万个 Deepfake 视频在相关的色情网站上,她们的主角包括女明星,网红以及一个个普通人。
▲ 图片来自:Wired
技术的发展让他们有了原本不会有的困扰。
实时视频仿真软件 Face2Face 的开发者 Justus Thies 也曾意识到这项技术的危险性,他在一次接受采访的时候表示:
如果这类视频软件得到广泛应用的话,将会对社会造成剧烈的影响。这也是为什么我们不把软件代码开源的原因之一。如果让不成熟的人接触到这类软件,将会大大提升网络霸凌的等级。
▲ Face2Face
Deepfake 引发的网络霸凌已经初见端倪,相关的法律法规却还没准备好。「先行者」加州做出的谨慎尝试也伴随了不小的争议。
立法限制新技术在特定领域的使用只是开始,如何规范技术的使用,如何保护用户的应有权利?这些都该得到更多的讨论和关注。
Deepfake 所用的技术在法律领域基本是一片空白,加州两项新法令的出台则是一个积极的信号。
它告诉所有人,Deepfake 视频所涉及的新技术,不应该成为制作者的法律保障。
题图来自 The Conversation。