日益严重的恶意“深度伪造”会带来什么威胁?

美国众议院情报委员会(House Intelligence Committee)上周听取了专家的证词,内容涉及“深度造假”(deepfake)所构成的日益严重的威胁,以及它对2020年大选以及美国整体国家安全可能意味着什么。深度造假指的是篡改的视频和其他人工智能生成的虚假信息。

这些统称为“深度赝品”的技术可以利用人工智能或机器学习的“生成对抗网络”技术,将现有的图像和视频与其他图像或视频进行组合或叠加。

这些功能允许创建包括色情在内的假名人视频,以及传播假新闻和其他恶意恶作剧。

听证会之前,众议院议长佩洛西(Nancy Pelosi)的一段修改过的视频在网上广泛流传。这让她显得有些受损。这段视频在社交媒体上广为流传,在Facebook上的点击量超过250万次。

深度造假已成为一个两党共同关心的问题,民主党和共和党都对利用受操纵的视频作为虚假信息工具表示担忧。

众议院情报委员会听取了四名不同的人工智能专家的证词,以及关于深度造假对美国政府乃至民主可能带来的风险的虚假信息。然而,一位专家也警告称,深度造假可能对私营部门构成威胁。其中一个场景可能涉及一段深度伪造的视频,显示一名首席执行官正在犯罪。将这类视频投放市场可能会影响一家公司的股价。

无论是在政界还是商界,即使一段视频被揭穿,损害也可能是持久的。

深厚的历史

“深度赝品”一词于2017年首次出现,但修改和操纵视频的能力可以追溯到1997年发布的视频重写程序。它允许用户修改一个人说话的视频片段,以描述这个人从一个完全不同的音轨上用嘴说出的话。

结合视频和改变内容的技术在好莱坞使用的时间甚至更长,但这通常是一个昂贵和耗时的努力。例如,电影《阿甘正传》(Forrest Gump)就要求一个艺术家团队将汤姆汉克斯(Tom Hanks)饰演的这个角色变成具有历史意义的影片。现在,20多年过去了,结果远不如今天的软件所能做的那么好。

2018年1月发布的FakeApp等简单程序允许用户轻松操作视频、交换面孔。该应用程序使用人工神经网络和4 GB的存储空间来生成视频。

视频的质量和细节取决于所能提供的视觉材料的数量,但鉴于今天的政治人物出现在数百小时的连续镜头中,制作一个引人注目的视频是很容易的。

打击假货

打击深度假货的技术正在研发中。南加州大学信息科学研究所开发了一种工具,可以检测到高达96%的正确率假货。它能够检测细微的面部和头部运动,以及独特的视频“伪影”——由压缩引起的媒体明显失真,这也可以表明视频操作。

以前检测深度赝品的方法需要对视频进行逐帧分析,但南加州大学ISC的研究人员开发了一种工具,该工具已经在1000多个视频上进行了测试,证明其计算强度较低。

随着视频被上传到Facebook和其他社交媒体平台上,它有可能扩大规模,并被用于自动——更重要的是快速——检测假货。这将允许近实时检测,这将阻止此类视频病毒式传播。

南加州大学ISI的研究人员依靠一个两步的过程。它首先要求上传数百个经过验证的个人视频。一种被称为“卷积神经网络”的深度学习算法允许研究人员识别人脸的特征和模式。然后,这些工具可以通过比较动作和面部特征来判断视频是否被操控。

这一结果类似于生物识别阅读器,可以识别人脸、视网膜扫描或指纹,但就像这些技术一样,比较也需要一个基线。对于佩洛西议长或汤姆汉克斯(Tom Hanks)等知名人士来说,这可能很容易,但对于普通人来说,可能就没那么容易了,因为现有视频素材的数据库可能有限,或者根本不存在。

有可能被武器化

无论是从个人层面,还是从国家层面,深度造假都有可能比“ps”照片更糟糕,造成更大的损害。

媒体信托数字安全和运营经理乌斯曼•拉希姆(Usman Rahim)警告称:“经过ps的图像和人工智能辅助的视频有着天大的不同,人们应该关注深度造假,因为它们具有更高的真实性和武器化的潜力。”

原因之一是,如今人们接受照片可以被修改,以至于这些照片被称为“廉价赝品”。视频是一个新的领域。

拉希姆在接受《电子商务时报》采访时表示:“更少的人意识到,虚假视频已经变得多么真实,为了传播虚假信息、破坏声誉或破坏民主进程,制作这些视频是多么容易。

“在错误的人手中,深度造假通过互联网传播,尤其是社交媒体,可以对个人,乃至更广泛的社会和经济产生巨大影响,”他补充说。

“除了国家安全风险——例如,一个深假视频的世界领导人用来煽动恐怖活动——政治风险尤其高在竞争激烈的全国选举,如2020年,与多个候选人寻求推翻一项有争议的现任,”拉里·帕内尔副教授指出,战略公关项目主管政治管理在乔治华盛顿大学的研究生院。

他在接受《电子商务时报》采访时表示:“任何一方都有可能被诱惑从事这种活动,这会让‘老派’的肮脏伎俩显得俗不可闻。”“我们已经看到社交媒体可以如何影响2016年的全国大选。与过去两到三年里这项技术变得多么先进相比,这似乎只是小菜一碟。”

除了政治和安全风险

深度造假可能会在更私人和个人层面上带来一个问题。这项技术已经被用来制作复仇色情视频,而且有可能被用于其他邪恶或邪恶的目的。

媒体信托的拉希姆说:“在无人监管的孩子手中,深度造假可以把网络欺凌提升到一个新的水平。”

“想象一下,如果我们自己或孩子的照片被使用并在网上发布,会发生什么,”他补充说。

乔治华盛顿大学的帕内尔警告说:“我们甚至可能在法律诉讼中看到虚假视频和社交媒体帖子被用来作为证据,指控一个有争议的人物,让他们闭嘴,或者破坏他们的信誉。”

已经有人呼吁让科技行业为制造深度假货负责。

俄亥俄大学(Ohio University)沃伊诺维奇领导与公共事务学院(Voinovich School of Leadership and Public Affairs)教授阿尼鲁德?

他在接受《电子商务时报》采访时表示:“如果你是传播深度假货的社交媒体或其他科技平台,你将被追究责任,并支付赔偿金,甚至可能坐牢。”

“这是你唯一的政策选择,否则你的社交媒体平台和网站就会因为向大众推送深度假货而受到惩罚,”鲁希尔补充说。

这些令人发指的视频的作者可能不容易被找到,在某些情况下可能是一种世界性的方式,使起诉成为不可能。

他说:“在某些方面,这一政策类似于有人可能会对枪支管制提出的论点:把目标对准那些能够造成巨大伤害的武器销售商。”“如果我们让科技行业放任自流,你会看到我们在监管Facebook、YouTube、Twitter等网站时遇到的同样困难再次上演。”

反击

关于deepfake的好消息是,在很多情况下,这项技术仍然不完美,而且有很多迹象表明视频被操纵了。

此外,已经有一些工具可以帮助研究人员和媒体分辨事实和虚构。

拉希姆说:“社交媒体和平台,以及传统媒体都可以使用这些工具来识别深度假货,要么删除它们,要么贴上标签,这样用户就不会被愚弄了。”

另一种解决方案可能很简单,就是在图像和文件中添加“数字噪音”,使它们更难被用来制作深度赝品。

然而,就像在网络安全领域一样,坏人很可能会领先一步——因此,今天的解决方案可能无法解决明天生产深度假货的方法。

在这个问题变得无法解决之前,可能有必要投入更多的精力来解决它。

帕内尔表示:“尽管这可能是一个持续且昂贵的过程,但大型科技公司现在应该投资新兴技术,以发现深度假视频。”

他补充说:“DARPA和其他政府和私营部门的公司正在开发可以利用的软件,否则就会措手不及,并因不这样做而受到公开批评,并因此而遭受严重的声誉损害。”

目前,出版商和社交媒体平台能做的最好的事情,就是呼吁并根除深度造假,这将有助于恢复信任。

拉希姆说:“如果他们不这样做,他们的信誉就会继续下滑,他们自己的企业就会走向灭亡。”

他警告称:“人们对社交媒体平台的不信任尤其在上升,人们认为社交媒体平台的威胁几乎与黑客一样大。”

拉希姆指出:“以维护或重新获得消费者信任为代价,优先考虑消费者数据货币化的时代,正在让位于一个新的时代,在这个时代,在线信任与不断增长的利润密切相关。”“社交媒体和传统媒体也可以成为一股正面力量,通过揭露坏人,提高消费者对深度假货流行和威胁的意识。”

发表评论
留言与评论(共有 0 条评论)
   
验证码:

相关文章

推荐文章

'); })();