在人工智能时代,通过视频和你聊天的漂亮女人可能是一个被吝啬男人驱使的傀儡。

近年来,随着人工智能技术的快速发展,人脸识别的认证逐渐改变了许多商业交互模式。

例如,苏宁要求个人贷款进行人脸刷认证,支付宝提供基于人脸的认证和登录方法,许多银行或金融公司也提供基于人脸识别的远程视频人脸检查流程。

目前,基于人工智能的人脸识别在准确性上已经超过了人类的肉眼识别能力,许多企业可以轻松享受到人工智能技术带来的便捷验证手段。

然而,直到deepfakes将人工智能作为图像或视频欺诈的大杀手,人们才意识到应用于积极领域的深度学习人工智能技术给我们带来了革命性的便利和效率。如果在黑暗的非法区域使用,我们面临的风险可能比以前大得多。

Deepfake技术引起轰动,是因为在国外的reddit论坛,一个网名为“deepfakes”的网友在2017年12月发布了一些利用深度学习技术“修改过”的成人视频,修改的内容就是将视频中的人脸照片更换为当前好莱坞最热的一些女明星的人脸,如2017年大火的神奇女侠——盖儿·加朵。Deepfake之所以引起轰动,是因为在国外的reddit论坛上,一位名叫“Deepfake”的网友在2017年12月发布了一些使用深度学习技术“修改”的成人视频。修改后的内容是用一些好莱坞最炙手可热的女明星的脸来代替视频中的脸部照片,比如盖尔·加多,2017年大火中的神奇女侠。

当时,公众舆论一片哗然,社会论坛一致发布了不允许人工智能制作和发布视频的公约。

因为基于深入学习制作的假视频很容易混淆真假,尤其是该技术可能会对经常出现的名人和政治家造成潜在伤害,如发布虚假声明和制作假视频内容,这将造成巨大的社会问题。

2018年初,youtube上有人发布了一段基于Deepfake技术的特朗普模仿视频:原视频是阿列克·鲍德温(AlecBaldwin)在周末晚上播放的一段模仿特朗普的视频,但youtube博客“derpfakes”训练变脸人工智能将阿列克·鲍德温的脸变成特朗普的脸。

可怕的是,这项技术已经能够实现像素级的人脸识别,显示出混淆真假和颠倒黑白的可能性。

不仅视频,声音也可以被复制和模仿。

例如,蒙特利尔的一家初创公司Lyrebird开发了一种语音合成技术,它使用很少的数据,并且可以在训练一分钟内重现任何人的声音。

如果将上述Deepfake技术与视频、声音和虚假内容相结合,人们将很难识别未来发布的新闻是否真实。

同样,如果你在网络上留下太多的痕迹(照片、视频、声音),这些信息可能会让你成为人工智能技术的受害者。

当人工智能被用来欺骗照片或视频时,视频的真实性验证将是未来的一个严重问题。

人工智能图像研究人员也注意到了这个问题。

例如,纽约奥尔巴尼大学的卢思伟教授最近提出了“眨眼检测”技术来分析视频中人物的生理特征,从而识别出人工智能制作的假视频。

具体来说,Deepfake算法基于馈送的图像创建视频。尽管人工智能相对准确,但它不能完美地再现人类自然产生的所有生理信号。

人类通常每两到三秒眨眼一次。

然而,逐帧合成照片训练产生的视频会破坏这些正常的生理行为特征。

为此,陆思伟教授利用美国有线电视新闻网(CNN)来识别人脸眨眼的特征。

然而,这种检测只能分析和处理单个图像,并且人类眨眼活动是周期性的。为了识别眨眼,需要额外的LSTM(长期和短期记忆递归神经网络)来记录一段时间内的连续行为。

在训练模型识别眨眼之后,可以通过比较正常视频和derpfake制作的视频中的眨眼特征来识别异常视频。检测结果如下:然而,当你认为用这种锋利的武器进行反欺诈视频检查一切正常时,你错了!前面显示了一个通过人工智能变脸制作的假视频。

如果伪造者一开始就添加了自然的人类特征,上述方法可能需要进一步优化和调整。

例如,像吉姆(H.Kim)这样的研究人员在siggraph 2018年的论文《深度视频肖像》(DeepVideoPortraits)中提出的技术,体现了利用一个人的面部表情特征来驱动另一个人的脸。生成的视频包含自然闪烁特征,其效果如下:阅读效果图后,您将理解欺诈者可以通过向表演者添加人工自然特征来完全避免闪烁检测。

黑人罪犯完全有可能制作这样一个映射视频,并将其与假语音特征相结合,以欺骗真实的人来验证视频检查。即使在面对面的视频交流中,你仍然无法识别真相。

当硬件的计算能力进一步提高,Deepfake技术进一步普及时,您是否意识到您发布的视频数据和语音数据可能会使您面临被该技术侵犯的风险?你意识到你面对面看的英俊的男人和漂亮的女人可能不是你看到的真实的人吗?互联网上有句谚语:“在电脑的尽头,你甚至不知道你是否在和一只狗聊天”,这句话可能会变成:“即使你在看面对面的视频,你也不知道和你聊天的漂亮女人实际上是一个被吝啬的大汉驱动的假人。”

发表评论

电子邮件地址不会被公开。 必填项已用*标注