主页 > 新兴天地 >眼见不为凭:假新闻攻防战 >

眼见不为凭:假新闻攻防战


眼見不為憑:假新聞攻防戰

假新闻、假消息氾滥的时代来袭,有心人士杜撰的不再只是充满阴谋论的文字与情节,或是那些容易被看破的粗糙修图,现在已能借AI之力伪造出以假乱真的影片了。这关乎的不再只是大众的媒体识读能力,而是我们人类是否有能力看穿伪造影片背后的真相呢?

深度造假?

「身处在这样的一个时代,我们的敌人可以让任何人说出一些他从没讲过的话。」镜头前,美国前总统欧巴马语重心长地说道:「嗯……就像是『川普总统是个不折不扣的笨蛋』。」这段今年(2018)四月被上传到YouTube上的影片,最终透漏令人讶异的真相:影片中说出这席话的,并非欧巴马本人,而是AI产生、栩栩如生的假影像。

这种AI模型有个相当直白的名字—深度造假(Deepfake),指的是那些以伪造为目的,利用深度学习完成的影像合成技术。其核心技术採用最近颇为盛行的对抗生成网路(generative adversarial network,GAN)。如同这部影片,喜剧演员Jordan Peele的样貌和声音为原型,在送入模型后,以欧巴马的面貌说出一些引发争议的话。近年来已有不少名人的脸被用作题材,并散布于网路上。这些看似无足轻重的八卦素材,却也是个助长假消息散播的利器。

寻找破绽

「刚开始看觉得没什幺问题,但仔细看之后会觉得不太对,但也说不出奇怪的地方在哪。」这是一位纽约州立大学奥尔巴尼分校的电脑科学家Siwei Lyu,看过Deepfake影片后的感想。他接着回想起学生时代玩过的瞪眼游戏,影片里的人和当时的对手如出一辙:完全不眨眼,一种异常但细微的行为特徵。

仔细回想,训练这种模型需要相当多的影像资料,但有多少自拍照是在闭眼时拍摄,又恰好捕捉到眨眼的瞬间呢?而这或许就是Deepfake可能的弱点之一:因为其无法模仿那些训练资料集中从未出现过的表情与动作。Lyu也发现:人所表现的正常生理特徵和情绪,举凡说话的语气、呼吸的频率等,也是神经网路难以驾驭、模拟的。这些看似无关紧要的细微之处,反而成了辨别Deepfake真伪的关键破绽。

道高一尺,魔高一丈

但就在Lyu利用这项发现,开发出一套能侦测伪造影片的模型,并将研究结果公布不到一週后,有个匿名信件就向他们分享了一部影片[1]。影片中,AI 产生的人脸竟然能正常地眨眼。Lyu坦承,只要釐清Deepfake的问题点,余下的其实只是时间的问题。最终可能沦为GAN里头的生成器(Generator)与鉴别器(Discriminator)间,无止境的军备竞赛。「但只要能提高影片造假的难度与技术门槛,那幺也不失为一种突破。」

见微知着

美国国防高等研究计划署(Defense Advanced Research Projects Agency,DARPA)为了因应假讯息,于2016年推动了一项「媒体鉴识计画」(Media Forensics Program,MediFor),希望开发出能辨别影像真伪的AI,供情报人员在第一时间判断情报是否可信。

第一个切入点,是藉由数位指纹(Digital fingerprint)评估影像是否源自于一台真正的相(摄影)机。正因多数电脑无法完全仿造经过透镜自然成像的影像,只要善加考究相机模型和影像压缩方式,都有机会筛选出来。

其次则是观察画面中的物体是否具备合理的物理特性,例如:特定光照条件下,金属和玻璃应有的反光或倒影,以至于物件该有的纹理都在考量範围之内。

最后,「语义」判定,例如画面中所呈现的时间、地点、天色、天气,甚至是人潮、车流等背景资讯,是否符合已知的观察与纪录(如天气观测纪录),都有可能成为重要的线索。

稀疏编码

无独有偶, Los Alamos国家实验室也在一年后推动了鉴别假讯息的研究。该机构的网路科学家Juston Moore表示:普通的Deepfake模型需要大量图形的训练才能有不错的表现,这也是为何模仿目标清一色都是公众人物的原因之一。无论模型再怎幺厉害,还是受限于资料库的大小与内容。不足之处,往往得仰赖重複的图形结构来补足。

因此,Moore分别对真假影片做稀疏编码(Sparse Coding)处理,这种方式能够将影像以各种基(basis)的组合向量表示,并各自建立起真影片与假影片的「字典」[2]。若要判断一部影片是真是假,只要将它做同样的稀疏编码,再与「字典」做比对,就能提供影片真实性的参考了。

眼见不为凭

可能有人会感到疑惑,为何前身致力于美国核武研究的Los Alamos如此重视假信息?事实上,情报的真伪同样关乎国家安全。Moore说道:若有一张卫星影像显示邻国正在进行核武部署,那幺指挥官在决定是否按下飞弹发射钮前,更应该确认情资的真伪。DARPA计画经理Matt Turek也预期,在不久的未来,假消息不再局限于单一的照片或影片,若有心人士欲操作特定话题,只要巧妙地安排一连串的消息和发布时序,都很容易凭空创造出令群众信服的假证据,而这已不再是阴谋论者的天马行空而已。

不久,我们都可能被迫对所有的电子纪录感到存疑。当然,就群众心理的角度而言,人们本容易因个人倾向,选择片面相信自己想相信的事物。但这些研究计画,还是希望设立某些标準,或以自动化模组替媒体把关。毕竟,当假消息氾滥到足以影响政治或法律决策时,恐怕都为时已晚了。

编译来源

S. Scoles, “These New Tricks Can Outsmart Deepfake Videos – For Now,” WIRED, 2018.

参考资料



上一篇: 下一篇:

我看见了你的美

我看青山多妩媚 料青山见我应如是

我看,分子厨艺

我真係唔会再同人讲 我去旅行,就算去大澳了 都唔好同人讲

我真係恭喜你!原来杨思琦同李嘉欣係亲戚!15个估佢唔到明星亲

我真心希望摔角从头到尾都是假的,因为这样,死亡跟意外就可以不

mg摆脱网站试玩_亚游安卓客户端下载|评论精彩|旷视风暴|网站地图 注册就送188元_万家博下载 必赢登录平台_ag娱乐赢凯发来就送68 葡京官方网app客服_新利国际娱乐注册 新利国际平台_百乐门娱乐app官网 18luck新利体育官网_好赢国际备用网站 必发电子游戏平台网址_LOVEBET体育 鑫宝国际网址_众发娱乐怎么登录下载 优德88官方网站开户_钱柜国际备用 9992020银河国际APP_彩博app苹果版 利发娱乐客户端_皇冠国际app在哪里下载