区块链对抗深度造假

兰卡斯特大学的索菲·南丁格尔博士和加州大学伯克利分校的哈尼·法里德教授表示,人工智能生成的面孔比真实面孔更值得信赖。科学家们展示了实验结果,合成图像看起来更加生动。

大约 95% 的 Deepfake 被生物面部识别系统接受

瑞士马蒂尼研究所的 进行的研究证明了这一点。主要射频中心(GRFC)的分析师提到了审查生成和识别深度赝品的方法方面的科学工作。据该研究的作者称,假字符是由 GAN(一种神经自学习网络)生成的。

A. Murzina 认为,生物识别相关事件的激增始于去年。 2021 年初,银行开始使用语音通过电话提供贷款服务。攻击者通过呼叫受害者、录音受害者的讲话并利用个人信息来获取金钱。

Group-IB 数字风险保护运营总监采访时证实,在各种平台甚至政府信息系统中注册虚假账户时,深度假货被积极用于欺骗生物面部识别系统。但专家指出,目前犯罪分子正在测试这项技术,尚未观察到其大规模使用。

他确定了将深度造假用于犯罪目的的三种主要场景。

– 对于勒索,当受害者的脸部被替换为具有危害性的内容(例如色情内容)的视频时,然后要求勒索赎金以阻止其传播。这种情况在印度已经出现过。

– 当需要公众人物的面孔时,提请人们注意任何欺诈计划。例如,为了激发公民对伪投资的兴趣,使用了 Oleg Tinkov 的 Deepfake,以及使用 进行加密货币欺诈。

– 针对公司的有针对性的攻击,即伪造经理或员工的身份以窃取金钱和信息。

Vladimir Kalugin ,IB 集团数字风险保护:

– 通常,此类攻击是使用语音假冒进行的,与视频相比,语音假冒与原始语音相比更难以区分。此类攻击造成的损失可能非常严重:2019 年,一家能源公司被盗 22 万欧元,2021 年,阿联酋一家银行被盗 3500 万美元。

A. Parfentyev回忆起2021年在中国发生的事件。攻击者利用 诈骗了国家系统 7600 万美元。他们代表假人创建空壳公司并开具假税务发票。

专家还提到了联邦调查局最近关于使用视频伪造的新场景的声明。

– 欺者利用深度伪造技术在美国获得远程工作,试图获得能够访问各种敏感信息(个人数据、商业秘密等)的职位。

我从眼睛里看到它

根据中国科学家的说法,深度造假有四种类型,他们的研究也发表在  文章中:

整个脸部的合成;
属性操作——性别、年龄、头发颜色;
更改图像源标识符;
人的面部表情和姿势的变化。
印度专家通过眨眼发现了深度造假。科学家们得到了 技术的帮助,该技术可以自动检测造假行为。

中国研究人员还指出,心率经常会泄露虚假图像,但他们强调,从视频中获取这一特征是一项劳动密集型任务。

IB 集团数字风险保护:

– 埃尔兰根-纽伦堡大学的科学家建议通过眼睛识别深度伪造品。奥尔巴尼大学则开发了一种识别技术,使用两个神经网络来记录非自愿 新西兰电子邮件列表 的生理动作:呼吸、眼球运动、眨眼。加州大学的程序员提出了一种基于面部表情和情绪变化的解决方案——他们认为这种方法可以以 99% 的概率识别 Deepfake。

去年,纽约州立大学的 IT 专家分析了一千个  视频,发现假角色是由学生赠送的。如果对于真人来说它们是圆形的,那么对于生成的人来说它们是不规则形状的。

A. Parfentyev 表示,大多数视频赝品的眨眼效果仍然很差,很少能承受光线或角度的变化,而且合成的声音语调不自然。他指出

电子邮件数据

识别假货是对诈骗者如何改进 Deepfakes 的一种指

– 最近他们说,在生成或替换的面孔的眼睛中,瞳孔不反射光源。几乎立即出现了绕过这个问题的新技术。

使用数据集进行识别

揭露深度造假的进展不断出现。 2022年夏天,美国国会研究处发布了《深度造假与国家安全》报告。A. Parfentyev 表示,在美国,国防 用户界面设计:是什么以及为什么使用它 部监督下创建的媒体取证(MediFor)和语义取证(SemaFor)项目正在积极发展。据他介绍,这些进展大部分都是基于使用生成深度赝品的相同神经网络来识别深度赝品,这是一种富有成效的方法。

Adobe、微软、英特尔索尼、尼康、BBC 和 Arm 等 IT 公司联盟将在未来几年推出验证照片和视频唯一性的标准。它基于区块链技术,可以验证材料的真实性。

与此同时,专家们注意到人工智能 买房b 的脆弱性。他并不总是能看到假视频中的小细节,因为这些视频通常是在经过大幅压缩的情况下发布到网上的。结果,算法抑制了许多人眼看来很小的细节。在压缩视频上训练识别系统仍然会产生许多错误。

– 还有人工识别假货的方法,称为“目视”。研究人员在公共领域发布了可用于揭露深度伪造的标志,我们自己也将这些标志作为培训课程的一部分与我们的合作伙伴和客户分享。

– 行业展表明,提供生物识别技术服务的公司也确保难以欺骗。安全专家强调了开发人员不明显的事情。

V. Kalugin 证实,在绝大多数情况下,诈骗者使用的深度伪造品可以用肉眼或耳朵检测出来。据专家介绍,

创建高质量的假视频图像需要大量的努力和技术能力

因此很少使用,主要用于针对性攻击。

– 有一些免费程序可以伪造视频,但制作高质 量的深度伪造需要花费大量时间。有软件可以在几个小时内创建一个赝品,但这需要一台昂贵、功能强大的计算机。也就是说,存在投资合理性的问题。

V.卡卢金认为

任何识别深度赝品的决定都将始终起到追赶的作用

Vladimir Kalugin ,IB 集团数字风险保护:

– 最近,来自宾夕法尼亚州、浙江和山东大学的研究人员发现,广泛使用的面部活体验证系统是针对过时版本的 Deepfakes 配置的,无法应对新版本。

澳大利亚、韩国和法国科学家的一项联合研究证实,提高深度造假检测方法性能的方法是创建一个不断更新的参考数据集。

鲁尔大学的研究人员一年前发表了一份报告,提议通过更新的数据集来打击深度造假。研究中提供的样本建立在六种不同的网络架构之上,由 104,000 个生成的音频剪辑组成。

中国专家还表示,缺乏多边数据集是检测深度伪造品的一个问题。作者举了一个例子,流行的 Microsoft Celeb 项目从互联网上收集了近 10 万人的  万张面孔图像。该资源被世界各地的科学家用来训练面部识别系统,但由于怀疑被用于邪恶目的而被禁止公开访问。

为了对抗合成图像的传播 和 提出了制定合成图像创作指南。据作者称,

安全措施可以包括在视频合成网络中实施强大的水印,这将提供后续的识别机制

俄罗斯批准了“新通信互联网技术”发展路线图。该文件除其他外,还研究了 DeepFake 内容的智能生成和识别技术。

A. Parfentyev 指出,他认为俄罗斯不会发生此类袭击。这位专家表示,“在我们国家,通过对着镜头眨眼来远程确定某件事的技术并不常见。”由于没有货币化的选择,因此没有必要将该计划置于商业基础上。

该专家补充说,目前诈骗者使用传统的社会工程技术进行直接欺骗和恐吓更有利可图。

A. Murzina 证实,深度造假并不​​是主要问题,例如,在使用生物识别技术的服务的安全性方面,经典漏洞仍然更相关。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注