首页 » 智能家居 » AI版007恐怖上演!间谍用GAN生成假头像大年夜肆网钓政客大年夜V

AI版007恐怖上演!间谍用GAN生成假头像大年夜肆网钓政客大年夜V

福州有家装饰工程通讯 2025-03-03 0

扫一扫用手机浏览

文章目录 [+]

【新智元导读】AI造假技能究竟还是被滥用了。
美联社宣布称,一名特工利用 AI 天生的个人资料和图片在有名环球职场社交平台LinkedIn上欺骗联系人,包括政治专家和政治内部人士。
目前在网络引发了激烈了的谈论。

科技是把双刃剑:令人担心的事情还是发生了。

AI版007恐怖上演!间谍用GAN生成假头像大年夜肆网钓政客大年夜V AI版007恐怖上演!间谍用GAN生成假头像大年夜肆网钓政客大年夜V 智能家居

自DeepFakes技能出身以来,造假脸、假***的恶搞不断,而基于GAN的干系技能让这种恶搞“更上一层楼”——真人?假人?傻傻分不清。

AI版007恐怖上演!间谍用GAN生成假头像大年夜肆网钓政客大年夜V AI版007恐怖上演!间谍用GAN生成假头像大年夜肆网钓政客大年夜V 智能家居
(图片来自网络侵删)

先来看下两个例子。

2015年,教皇方济各 (Pope Francis) 访美期间,“一个出人意料之举”震荡了天下:只见他在向圣坛星期后,转身顺手将桌布一抽,上演了一出绝妙的“抽桌布”戏法,动作之行云流水,令人膜拜。

干系***很快火遍了全美乃至全天下。
但是,这是一个假***。

2015年现任教皇访美,上演绝妙“抽桌布”戏法,美国主教看后表示不爽。
当然,这段***是假造的,但这并不影响其盛行。

今年2月,英伟达StyleGAN开源,而后一波“造假热潮”来了——假猫、假人、假房源网站如“雨后春笋般”崛起。
人们不禁感叹:实在太逼真了!

但在惊叹之余,人们不禁对诸如此类的AI技能表示担忧:若是被滥用,会严重影响人们的安全和隐私。

事情还是发生了。

根据美联社宣布,一名特工利用 AI 天生的个人资料和图片在有名环球职场社交平台LinkedIn上欺骗联系人!

文章地址:

https://apnews.com/bc2f19097a4c4fffaa00de6770b8a60d

据称,凯蒂·琼斯(Katie Jones)在一个高等智库事情, 与政治专家和政治内部人士联系在一起。
个中包括一些零散确当局人物,如参议员的助手、副助理国务卿,以及目前正在考虑加入美联储的经济学家保罗•温弗里(Paul Winfree)。

但实在,她并不存在。

图灵奖得主、Facebook首席科学家Yann Lecun对此发推表示:

显然,GAN在LinkedIn上被用来创建虚假的个人资料照片,并用于国际工业特工活动。

人类被戏谑:这个AI特工堪比007,钓到不少“大V”

Katie Jones彷佛很关注华盛顿的政治场合排场。

这位30岁的红发女郎声称在一个顶级智库事情,是美国国际计策研究中央(CSIS)的研究员。
她与美国的一位副助理国务卿、一位参议员的高等助理以及正在考虑担当美联储席位的经济学家Paul Winfree均有联系。

但是美联社已经确定,Katie Jones并不存在。

相反,这个人是隐蔽在专业社交网站LinkedIn上的大量幻影资料之一。
美联社联系的几位专家表示,Jones的个人资料照片彷佛是由一个打算机程序创建的。

CSIS航空安全项目和国防预算剖析主任Todd Harrison发推表示:

现在我开始疑惑我的 CSIS 同事中有多少是真正的人类, 而不是 AI 产生的。

他还调侃道:“Sam,你是真人吗?”

“我相信这是一张假脸,”Mario Klingemann表示。
Mario是一位德国艺术家,多年来一贯在试验人工天生的肖像,他说自己已经审查了数万张这样的肖像图。
“这张头像有所有的特色。

看了Jones个人资料和活动的LinkedIn专家表示,这是职业社交网站特工活动的范例表现。
作为环球名片簿,LinkedIn成为吸引特工的强大磁铁。

丹麦民主同盟基金会智囊团的项目主任Jonas Parello Plesner说,“它看起来像某种国营业务。
”几年前,Jonas是LinkedIn上特工活动的目标。

与Facebook的朋友和家庭聚焦点不同,LinkedIn面向求职者和猎头,这些人常日会放出简历,建立弘大的联系网,向陌生人推销项目。
这种“把他们都联系起来”的办法有助于补充网站上数百万个招聘职位的空缺,但它也为特工供应了一个丰富的猎场。

过去几年,英国、法国和德国官员都发出警告,详细解释外国特工如何利用LinkedIn与数千人取得联系。

在一份声明中,LinkedIn表示它常常对假帐户采纳行动,在2019年的前三个月中对个中数千个帐户进行了处理。
它还说“我们建议您与您认识和信赖的人联系,而非任何人。

Katie Jones的个人资料规模不大,有52个联系人。

但是这些联系人具有足够大的影响力,接管Jones约请的一些人也会因此对她信赖。
美联社在今年3月初至4月初期间与其他大约40名与琼斯有联系的人进行了交谈,个中许多人说他们常常接管他们不认识的人的约请。

“我可能是LinkedIn历史上最糟糕的用户,”特朗普总统的海内政策委员会前副主任Winfree说,他在3月28日确认了与Jones的联系。

上个月,联邦储备委员会理事会的一个职位空缺,Winfree的名字涌现了,他表示,自己很少登录LinkedIn并方向于批准他所有堆积的约请。
“我真的接管了我的每一个朋友约请,”Winfree说。

在日内瓦韦伯斯特大学教东亚事务的Lionel Fatton说,他不认识Jones的事实让他在3月份与她联系时有短停息留。
“我记得犹豫未定,”他说:“然后我想,'有什么害处?'”

Parello-Plesner指出,潜在的侵害可能是奇妙的:连接到像Jones这样的个人资料约请意味着与背后的人进行一对一的对话,网站上的其他用户可以将连接视为一种认可。
他说:“你降落了自己的当心,也让别人放松当心。

Jones的个人资料首先由伦敦Chatham House智囊团的俄罗斯专家Keir Giles举报。
Giles最近陷入了针对俄罗斯反病毒公司卡巴斯基实验室的批评者的完备独立的特工活动。
以是当他收到Katie Jones在LinkedIn上的约请时,他很疑惑。

Jones声称自己多年来一贯在华盛顿计策与国际研究中央担当“俄罗斯和欧亚大陆研究员”,但Giles表示,如果这是真的,“我该当听说过她。

CSIS发言人Andrew Schwartz见告美联社,“没有一位名叫Katie Jones的人为我们事情。

Jones还声称已得到密歇根大学俄罗斯研究学位,但学校表示“无法找到任何一个以此名字从大学得到这一学位的学生。

在美联社联系网络寻求评论后不久,Jones账户就从LinkedIn上消逝了。
通过LinkedIn和干系的AOL电子邮箱帐户发送给Jones本人的邮件也没有回答。

美联社采访的浩瀚专家表示,Katie Jones最吸引人的地方可能是她的脸,他们说这彷佛是人为创造的。

Klingemann和其他专家说,这张照片—— 一张蓝绿色眼睛、褐色头发和神秘微笑的女人的肖像——彷佛是利用称为天生对抗网络(GAN)的一系列打算机程序创建的,这可以创造出想象出来的人的逼真面孔。

GAN,有时被描述为一种人工智能形式,已经受到越来越政策制订者的关注,只管他们已经在努力处理数字虚假信息了。
周四,美国立法者举行了他们的第一次听证会,紧张谈论人为天生图像的威胁。

南加利福尼亚大学创意技能研究所卖力图形实验室愿景的Hao Li发布了一份数字报告清单,他认为Jones的照片是由打算机程序创建的,包括Jones眼周围的不一致、她头发周围的光和左脸颊上留下污迹。

基于GAN天生的图像:逼真到恐怖,能天生世间万物

这个造假技能到底有多厉害?

基于GAN的架构一个又一个推出,英伟达StyleGAN便是个中一个,多上几张图有助于你回顾:

这个模型并不完美,但确实有效,而且不仅仅可用于人类,还能用于汽车、猫、风景图像的天生。

英伟达研究职员在论文中写道,他们提出的新架构可以完成自动学习,无监督地分离高等属性(例如在人脸上演习时的姿势和身份),以及天生图像中的随机变革,并且可以对合成进行更直不雅观且特定于比例的掌握。

换句话说,这种新一代GAN在天生和稠浊图像,特殊是人脸图像时,可以更好地感知图像之间故意义的变革,并且在各种尺度上针对这些变革做出勾引。

例如,在上面的动图中,实在面部已经完备变了,但“源”和“样式”的明显标记显然都得到了保留。
为什么会这样?请把稳,所有这些都是完备可变的,这里说的变量不仅仅是A + B = C,而且A和B的所有方面都可以存在/不存在,详细取决于设置的调度办法。

而StyleGAN之以是强大,就在于它利用了基于风格迁移的全新天生器架构:

在传统办法中,隐码(latent code)是通过输入层供应给天生器的,即前馈网络的第一层(上图中的a部分)。
而英伟达团队完备省略了输入层,从一个学习的常量(learned constant)开始,从而分开了传统的设计(图1b,右)。
在输入隐空间Z中,给定一个隐码z,一个非线性网络 f:Z→W首先天生w∈W(图1b,左)。

英伟达团队的天生器架构可以通过对样式进行特定尺度的修正来掌握图像合成。
可以将映射网络和仿射变换看作是一种从学习分布(learned distribution)中为每种样式绘制样本的方法,而将合成网络看作是一种基于样式凑集天生新图像的方法。
修正样式的特定子集可能只会影响图像的某些方面。

面对假脸天生算法,现有人脸识别系统险些束手无策

之前,大多数研究都集中在如何提高“换脸”技能上,也便是如何让打算机天生超逼真的人脸。

谁料,这种技能发展的滥用造成了反效果,也即所谓的“DeepFake”。
现在,DeepFake已被用于指代所有看起来或听起来像真的一样的假***或假音频。

针对 Deepfake ***中人脸识别的漏洞,两人在论文中对基于VGG和Facenet的人脸识别系统做了漏洞剖析,还利用SVM方法评估了 DeepFake 的几种检测方法,包括嘴唇动作同步法和图像质量指标检测等。

结果令人遗憾——

无论是基于VGG还是基于Facenet的系统,都不能有效区分GAN天生假脸与原始人脸。
而且,越前辈的Facenet系统越随意马虎受到攻击。

VGG模型是2014年ILSVRC竞赛的第二名,第一名是GoogLeNet。
但是VGG模型在多个迁移学习任务中的表现要优于googLeNet。
而且,从图像中提取CNN特色,VGG模型是首选算法。
它的缺陷在于,参数量有140M之多,须要更大的存储空间。
但是这个模型很有研究代价。
Facenet该模型没有用传统的softmax的办法去进行分类学习,而是抽取个中某一层作为特色,学习一个从图像到欧式空间的编码方法,然后基于这个编码再做人脸识别、人脸验证和人脸聚类等。

直方图显示了基于VGG和Facenet的人脸识别在高质量人脸交流中的漏洞。

检测Deepfake***

他们还考虑了几种基线Deepfake检测系统,包括利用视听数据检测唇动和语音之间不一致的系统,以及几种单独基于图像的系统变体。
这种系统的各个阶段包括从***和音频模态中提取特色,处理这些特色,然后演习两个分类器,将修改的***与真实***分开。

所有检测系统的检测结果如下表所示。

解释一下表格中各种“符号”和数字的意思,你也可以直接跳过看本节末了结论:

在本系统中,利用MFCCs作为语音特色,以mouth landmarks之间的间隔作为视觉特色。
将主身分剖析(PCA)运用于联合音***特色,降落特色块的维数,演习是非期影象(long short-term memory, LSTM)网络,将修改和非修改***进行分离。

作为基于图像的系统,实现了以下功能:

Pixels+PCA+LDA:利用PCA-LDA分类器将原始人脸作为特色,保留99%的方差,得到446维变换矩阵。
IQM+PCA+LDA:IQM特色与PCA-LDA分类器结合,具有95%保留方差,导致2维变换矩阵。
IQM + SVM:具有SVM分类器的IQM功能,每个***具有20帧的均匀分数。

基于图像质量测度(IQM)的系统借鉴了表示域(domain of presentation )的攻击检测,表现出了较好的性能。
作为IQM特色向量,利用129个图像质量度量,个中包括信噪比,镜面反射率,模糊度等丈量。

下图为两种不同换脸版本中性能最好的IQM+SVM系统的检测偏差权衡(DET)曲线。

IQM + SVM Deepfake检测

结果表明:

首先,基于唇部同步的算法不能检测人脸交流,由于GAN能够天生与语音匹配的高质量面部表情;因此,目前只有基于图像的方法才能有效检测Deepfake***。

其次,IQM+SVM系统对Deepfake***的检测准确率较高,但利用HQ模型天生的***具有更大的寻衅性,这意味着越前辈的人脸交流技能将愈发难以检测。

AI研究揭橥和模型开源,真的该制订一个规范了

Yann LeCun于2月在Twitter上提问:

讲真,假如当初知道卷积神经网络(CNN)会催生DeepFake,我们还要不要揭橥CNN?

LeCun说:“问个严明的问题:卷积神经网络(CNN)被用于(或开拓)各种各样的运用。
很多这样的运用对天下起到了积极影响,例如,医疗影像、汽车安全、内容过滤、环境监控等等。

“但有的运用则可能起到负面的效果,或者说陵犯隐私,例如,"大众场所的人脸识别系统、进攻性武器,以及有偏见的“过滤”系统……

“那么,假设在上世纪80年代那时我们能够预见CNN的这些负面影响,我们该不该把CNN模型保密不公开呢?“

几点想法:

终极,CNN(或者类似的东西)还是会被其他人发明出来(实际上,有些人可以说差不多已经做到了)。
实在,福岛邦彦就跟我说,他80年代末的时候正在研究一种用BP演习的新认知机(Neocogitron),但看到我们1898年揭橥的神经打算论文“大感震荡”(shocked),然后停滞了他的项目。
开源CNN或深度学习软件平台直到2002年才涌现(CNN是20世纪90年代早期商业软件包SN和2002年开源的Lush软件包的一项功能。
20世纪90年代中后期才开始有OSS分发)。
因此,在某种程度上,CNN直到2002年才完备揭橥(released)。
但那时基本没有什么人关注CNN,或者想到用Lush来演习CNN。

LeCun的这番话,可以说是为他此前的“表态”做出了完美的阐明。
是的,这里说的还是关于OpenAI模型开源的那件事。

但是,通过这次事宜来看,OpenAI以为由于模型过于强大而不开源的担忧兴许是精确。

当然,现在业界的重点已经从最初的口水战聚焦到AI研究揭橥和开源政策的谈论上来。

现在能够肯定的是,关于AI研究揭橥和模型开源,干系的政策真的须要制订了。
OpenAI在担心模型被滥用时举了DeepFake为例,DeepFake是基于CNN构建的图像天生模型,由于强大的图像天生能力,能够天生以假乱真的人脸,乃至骗过前辈的人脸识别模型。

那么,还是回到那个严明的问题:

你认为强大的技能是否该开源呢?

欢迎留言给出你的见地。

PS:

你能辨别真脸和假脸吗?不妨到这个网站测试一下:

http://www.whichfaceisreal.com/

参考链接:

美联社:https://apnews.com/bc2f19097a4c4fffaa00de6770b8a60d

The Verge:https://www.theverge.com/2019/6/13/18677341/ai-generated-fake-faces-spy-linked-in-contacts-associated-press

Twitter:https://twitter.com/search?q=katie%20jones&src=typd

StyleGAN:https://github.com/NVlabs/stylegan

标签:

相关文章