安徽男子9秒被骗132万!AI换脸/AI变声“赋能”下的诈骗防不胜防

吴子鹏
AI换脸实际上是一种利用人工智能实现图像合成的技术,主要原理是通过人脸检测、关键点检测、人脸对齐、特征提取、特征融合和后处理等步骤将一个人的面部特征转移到另一个人的面部,产生以假乱真的换脸效果。

本文来自微信公众号“电子发烧友网”,作者/吴子鹏。

近日,AI诈骗在国内密集发生,犯罪分子利用人脸效果更易取得对方信任这一点,通过AI技术换脸伪装成受害者的熟人实施诈骗。网友对此感叹:眼见都不为实,真是防不胜防啊!

日前,多家媒体报道称,5月22日安徽安庆何先生接到熟人视频电话,对方让其帮助转账,视频9秒后便以开会为由挂掉电话。还称“微信和电话不能说,加一下QQ”。事发时,何先生放松了警惕,他表示:“因为打了视频电话,又是熟人,我就没多想,就转账了”。

好在发现被诈骗后,何先生迅速报警,专案民警第一时间冻结相关账户,连夜赶赴北京市抓获3名涉诈嫌疑人,追回何先生被骗的132万元。

这起案件和此前包头市公安局电信网络犯罪侦查局发布的AI诈骗很相似,福州市某科技公司法人代表郭先生因为AI换脸,10分钟内被骗430万元。

AI换脸/AI变声成诈骗“好手段”

我们在此前的文章中已经指出,未来人工智能领域的创新有七大趋势,分别是人工智能技术与云计算、物联网、区块链、生物科技、社会科学、艺术文化和人类自身的结合。而AI变脸和AI变声无疑就属于AI和人类自身的结合。

AI换脸实际上是一种利用人工智能实现图像合成的技术,主要原理是通过人脸检测、关键点检测、人脸对齐、特征提取、特征融合和后处理等步骤将一个人的面部特征转移到另一个人的面部,产生以假乱真的换脸效果。

我们分步来看。AI换脸的第一步是要做人脸检测,目前这方面的算法已经非常成熟,主要分为基于级联的人脸检测算法,基于两阶段的人脸检测算法,以及基于单阶段的人脸检测算法三大类。比如Cascade CNN、MTCNN等都是基于级联的人脸检测算法;Face R-CNN、ScaleFace、FDNet等都是基于两阶段的人脸检测算法;SSD、RetinaNet等则是基于单阶段的人脸检测算法。目前,这些算法已经发展到只需要很少的图片信息就可以构建成神似真人的人脸和表情。

第二步是人脸对齐。先要对人脸表观图像建模,也就是对检测用到的图片进行建模,包括颜色模型、投影模型、侧剖线模型和深度模型等。然后要对人脸形状建模,也就是对要被更换的人脸进行建模,这部分和我们熟知的人脸识别非常类似。然后,将两个建好的模型进行级联,这就是人脸对齐。

第三步是特征提取和特征融合。这是在建模后进一步细化的工作,提取出人脸的特征向量,包括面部形状、纹理和颜色等信息。目前,很多AI换脸都是使用基于CNN的面部表情分析和姿势估计算法来完成。为了让换脸后的表情更加自然,接下来就需要做特征融合,生成一份新的面部特征。

最后一步是重建图像,通过反卷积神经网络(DCNN)或GAN等重建算法,将新的面部特征映射到模型里,并生成一个可以投射的新模型,从屏幕上看,这就是一个能够实现AI换脸的新图像。

在AI换脸技术背后,“生成对抗网络”(GAN)技术起到了很重要的作用。2014年,Goodfellow与同事发表了全球首篇介绍GAN的科学论文,标志着GAN AI的诞生,并且在那一年就有业者预测称,GAN有望生成仿真度极高的人脸。随后的几年,GAN技术快速发展,到了2017年其生成的人脸已经难以区分真假了。到了2021年,基于GAN技术的deepfake(深度伪造)视频已经能够参演明星的演唱会了。

对于AI变声,相信很多人都已经在电影中见识过了,这种技术在电影中的应用场景也多是用来欺骗别人,目前市面上已经有包括AdobeAudition、Audacity等在内的众多变声软件。不过,一般用于诈骗的都是AI换声,其是利用一种叫做语音转换(voice conversion)的技术,来实现声音特征的转换。和AI换脸相同的是,AI换声也需要特征提取,然后将这些特征转换输出,需要提取的特征包括基频、共振峰、梅尔倒谱系数等,用这些特征来改变另一个人说话的声音。

有了AI换脸和AI换声,就可以将一个人伪装成另一个人,然后用于制造虚假新闻、诽谤他人、侵犯隐私、欺诈诈骗等非法领域。这可能就是AI技术普惠特性的B面。

不能让AI的普惠特性被滥用

近些年,AI的应用范围越来越广,呈现出一种百花齐放的姿态,在医疗、制造、安防、金融、交通等众多领域完成落地。公开数据显示,2022年,我国人工智能市场规模达到2680亿元,预计2023年全年我国人工智能市场规模将达到3200亿元,同比增长33.8%。

然而,高速发展的AI也有被滥用之嫌。就以AI换脸来说,积极的一面是其在数字人领域的应用前景是巨大的,包括影视娱乐、游戏开发、教育培训、医疗保健和安防等领域都有望受益于这项创新技术。比如在教育培训行业,AI换脸技术有望让历史人物“重生”,帮助学生更加直观地了解历史人物形象、文艺作品中的角色等,有利于增强学习兴趣和认知效果。

不过,AI换脸也被不法分子盯上了,于是乎便有了AI换脸诈骗。

实际上,对于deepfake,在其2019年成为主流时就已经引起了立法机构的注意。在当时,网上流传出很多伪造的视频,甚至是有关一些国家的领导人,随后不久中美德等国家的司法机构都开始对deepfake出手。其中,中国将未经授权的deepfake归为违法行为;美国情报委员会以及AI和法律领域的专家纷纷警告称deepfake已经呈现出泛滥之势,并呼吁应尽快制定相关法规;德国则发布了有关于deepfake削弱国家公信力的声明。

目前,对于AI欺诈基本是从两个方面进行防范。其一是加强管理,比如在2022年12月发布的《互联网信息服务深度合成管理规定》中明确规定,提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。同时,近年来个人信息保护法、个人信息安全规范、数据安全法等法律法规也在加强个人隐私数据的保护。

其二是技术层面做突破,也就是所说的用“魔法”打败“魔法”,目前很多公司都在致力于推出基于人工智能技术的防诈骗应用。比如活体防伪、中介识别等,这些应用对于AI换脸诈骗有一定的打击作用,可以有效识别照片、视频、面具、仿真模型等,特别是使用应用程序实现的换脸和换声等。

当然,无论法规和技术如何突破,AI诈骗肯定是难以杜杜绝的。因此,全民具备“防范意识”才是杜绝AI诈骗的大前提。

后记

技术在升级,骗术也在升级。近一段时间以来,AI换脸欺诈的新闻频现报端,实际上我们都知道现实中的案例更多。这是AI技术的另一种打开方式,对社会稳定发展有巨大的威胁。另外,AI换脸明星演员在直播平台带货的现象也是屡禁不止,涉嫌欺诈或是虚假宣传。要杜绝此类事情,需要法规和产业的高度配合,同时也需要增强全民的防范意识。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论