我们的记者华玲
人脸识别作为生物特征识别的重要手段,近年来已成为身份识别领域的热点。然而,随着人脸识别技术的发展,也出现了借助机器学习系统、图像、视频和音频内容改变人脸、物体或环境呈现方式的深度伪造技术。随着这项技术的成熟,由此引发的许多社会问题也日益突出。在打假视频的斗争中,各方在寻求技术突破的同时,都在努力进行制度建设的变革。
俗话说,“眼见为实”,人们经常相信他们看到的图像和视频。随着photoshop、美图秀秀等图像编辑软件的兴起,以及人工智能证伪技术的改变,图像篡改变得越来越容易。虚假图片和虚假新闻充斥网络,人们越来越无法相信自己的眼睛。
为了应对美国大选季虚假信息高发,谷歌最近决定用ai来控制ai。一些专家指出,deepfake是人工智能发展到一定阶段的产物。随着这项技术的发展,相应的检测技术也会越来越先进——就像“猫抓老鼠的游戏”,那将是一场无休止的竞争。
假视频越来越逼真
2019年11月,在北美上映的电影《爱尔兰人》反响热烈,其中电影特效制作公司利用虚拟影像重构技术集体“淡化”了影片中的主角,抚平了近80岁演员脸上岁月的痕迹,让他们焕发青春。这种让风华正茂的演员回归青春的“变脸”手法,着实让观众震惊。
“deepfake特指基于人工智能的人体图像合成技术,主要用于‘变脸’。它在很多领域都有积极的商业价值,但一旦被‘黑产’作为盈利工具盯上,就会给个人和社会带来风险。和挑战。”王源智库人工智能部主任、图灵机器人首席战略官谭明洲表示。
最有争议的是一些色情网站使用“变脸”技术。不久前,网络上流行的“一键脱衣服”软件deep裸照,通过输入一张完整的女性照片就可以自动生成裸照,生成的照片有广为流传的风险,这个app在各方压力下终于下架了。
不仅如此,不久前还出现了deepfake的语音版。Realtalk是加拿大一家初创公司开发的语音合成系统,仅基于一定的文本输入就能产生与真人语音非常相似的声音。演示过程中,系统模仿了一位美国著名脱口秀喜剧演员兼主持人的声音,以至于我听完之后大喊“真的很可怕”。在未来,这项技术可能会发展到只需要几秒钟的音频素材,也就是可以重现别人的声音。
更让人头疼的是,深度造假技术让虚假信息“更强大”,尤其是在重大社会事件中,可能会影响人们的决策和社会稳定。根据相关文献,在2016年美国总统大选的前一个月,每个美国网民平均会接触到1-3条假新闻。2020年初,新冠肺炎肺炎病毒席卷全国,造假者利用上述技术伪造钟南山院士讲话,用于“辟谣”的百度搜索指数(1月19日-1月25日)比去年春节期间增长了5.4倍。
用ai治愈ai找伪视频
“自从deepfake2017在2017年底首次出现以来,随着其技术的开源,合成剪辑视频的数量一直在增加。处理虚假视频,需要在网络的海量信息中快速发现虚假图片,并准确提取图像识别后的语义,这也是人工智能算法的核心研究点。”谭明洲说。
要鉴别假视频,首先我们来分析一下deepfake有哪些招数。
“目前,图像篡改的类型主要分为四类:复制粘贴、镶嵌、图像修复/局部区域去除和人脸ps。”行业专家曹娟博士最近在接受《科技日报》采访时指出,“现有的检测方法主要基于人工特征方法和深度学习方法。前者包括基于图像的物理属性(光照不连续、阴影不连续、色差等)。),相机属性(滤色器阵列、传感器噪声、exif数据分析等。),压缩轨迹(dct系数,块效应等。),像素级属性(复制粘贴、重采样等)。后者包括编解码模型、约束卷积模型和多域模型等
“魔”高一尺,“道”高一丈?近日,谷歌母公司alphabet的子公司jigsaw与谷歌研究、马里兰大学等研究机构联手开发了一个名为assembler的实验平台,旨在帮助用户通过简单操作快速识别deepfake,减少ai技术滥用带来的危害。
谭明洲介绍:“其实这个平台是将多个图像探测器集成到一个工具中,每个探测器处理一个特定类型的图像。比如有的检测器可以判断图像是否有复制粘贴痕迹,检测主要针对图像颜色和噪声。”
具体来说,它的机器学习模型不仅可以利用图像的颜色值来发现异常,还可以检查图像的噪声模式是否不一致。从算术上来说,它可以在已编辑的jpeg压缩图像区域中找到外观相似的块,以判断一幅图像是否被复制粘贴到另一个区域。
“然而,在真实场景中,媒体经常面临经过复杂处理后编辑的低分辨率图像,这给检测技术带来了新的挑战。底层算法不能准确把握图像上丢失的篡改痕迹,还需要结合高层语义算法进行识别。”曹娟说。
曹娟进一步指出,现有的检测假视频的方法仍然存在三个主要的局限性。第一,通用性不够,大部分检测只是针对特定类型的篡改。如何发现篡改的共同属性,使模型能够处理多种类型的篡改,是未来的研究重点之一。第二,对抗能力不够。目前篡改手段不断隐藏。经过复杂处理后,篡改痕迹往往会消失,导致检测性能大幅下降。如何提高模型的健壮性,处理各种实际应用场景,是未来的核心任务。第三,目前的方法基本上都是将图像分割成小块,然后逐块处理,非常耗时耗资源。
建立一个生态系统,以确保信息的真实性
国际咨询公司高德纳(Gartner)预测,到2020年,互联网上的虚假信息可能造成更大的危害,基于人工智能技术的虚假检测能力可能远远超过虚假检测能力。2018年3月发表在《科学》杂志上的一篇论文指出,近年来虚假新闻的兴起凸显了互联网时代针对虚假信息的现有制度和技术的不足,迫切需要重建一个信息生态系统,以确保信息的真实性。
“现在更重要的是完善有针对性的检测技术,完善相关法律和认证机制。”谭明洲强调。
2019年9月5日,facebook的相关负责人宣布,Facebook正在与微软公司合作,在包括麻省理工学院、牛津大学、康奈尔大学等在内的许多大学研究检测deepfake的方法。与此同时,关于ai的非营利研究组织伙伴关系也参与其中,其成员包括谷歌、苹果、亚马逊和ibm等大型科技公司。
曹娟表示,在研究方面,除了汇编平台,中科院计算技术研究所、中科院自动化研究所、北京交通大学、中山大学、深圳大学等。,以及加州大学伯克利分校、宾厄姆顿大学、马里兰大学等。与此同时,许多企业和研究机构正在积极开发实用的图像篡改检测工具和平台,如美国amped软件公司开发的amped认证工具。
2019年11月29日,国家互联网信息办发布《网络音像信息服务管理条例》,要求网络音像信息服务提供者具备适合新技术、新应用发展的安全可控的技术支撑,部署非法音像和不真实音像识别技术。
专家建议,为防控虚假视频,相关部门应建立相关管理制度,尤其是新闻视频和新闻内容管理;在传播渠道上,需要建立过滤机制,实现技术上的高效过滤,追踪所有的假视频、假音频。同时,要加大对检测技术研发资金的投入,刺激技术创新。
标题:[科学技术]AI造假 vs AI打假 终结“猫鼠游戏”不能只靠技术
地址:http://www.heliu2.cn/xw/9889.html