细思极恐!你的“声音”也能被深度伪造,连你妈妈都听不出来!

细思极恐!你的“声音”也能被深度伪造,连你妈妈都听不出来!
2019年09月10日 13:42 中国经营报

最近有一项新的科技技术,用户只需上传一张正面照,就可以一键操作,把一些影视剧片段中演员的脸换成自己的,甚至还可以通过社交媒体上传至网络上。这种“深度伪造”不仅可以换脸,还可伪造声音。而目前一些科技公司在面对深度伪造的视频时,也显得力不从心。这不禁让人们担忧,在深受网络社交媒体追捧的“超级”新技术背后,可能有哪些安全隐患?

语音合成“术”可以模拟任何人语音彭博社记者万斯使用电脑合成语音给他母亲打了个电话,看看他母亲能否发现?一起来看视频↓↓↓

央视财经《中国财经报道》栏目视频彭博社记者万斯:现在为了实验一下,我的电脑合成音,我要给我亲爱的妈妈打个电话,看看她是否能听出来。

万斯(合成音):嗨,妈妈,你们今天什么安排?万斯的母亲:今天一早家里没电了,我们正在房子里溜达。万斯(合成音):我刚刚下班,等着接儿子回家。万斯的母亲:好的。万斯(合成音):我觉得我可能感染了病毒。万斯的母亲:那你感觉不舒服,是吗?万斯:哈哈。我刚才是和你捣乱,你刚才在和电脑说话。万斯的母亲:我感觉在和你说话,真是奇妙。万斯:你觉得吓人还是觉得不错。万斯的母亲:如果涉及到非常重要的事情,真的挺吓人的。

合成视频以假乱真深度伪造,是一种可以实时伪造面部表情,并将其渲染成2D合成视频的人工智能技术。“DeepFake”深度伪造,也逐渐成为这一技术的代称。

央视财经《中国财经报道》栏目视频李浩是美国南加州大学的助理教授,“针幕动画”公司的联合创始人,这家公司推出的软件可以让用户在玩虚拟现实游戏和购物时,即时定制自己的三维虚拟化身。

“针幕动画”联合创始人李浩:现在我制作了一个你的化身。美国公共广播公司记者奥布莱恩:一个和蔼整洁的奥布莱恩。

但随着技术的发展,这样的合成图像或视频,真实度越来越强,欺骗性也越来越强。对此,研发者也不无担忧。2018年1月,一个名为FakeApp的软件上线,宣称可以实现“一键换脸”。虽然有的社交新闻站点比如Reddit网站,已明令禁止在自己的平台传播换脸视频和图片,但仍有超过9万名用户在Reddit上传播这类视频。计算机科学专家法里德:我担心这项技术被武器化,还担心它如何影响我们整个社会。

“深度伪造”技术引发巨大争议新技术推广应用应做好监管一些科技公司在面对“深度伪造”的视频时,也显得力不从心。Instagram总裁莫里斯也在接受采访时表示,目前业界还没有大规模的数据或标准对这些假视频进行检测。

Instagram总裁莫斯里:目前,我们还没有应对深度伪造的政策,我们正试着评估,是否愿意这么做。如果要做,又该如何定义深度伪造,我觉得此类事件并不好。主持人盖尔·金:你可以把视频下架。莫斯里:实际上,我想的不仅是把它撤下来,我认为问题在于,我们如何以有原则的方式,做到这一点。

如今,诸如指纹支付、人脸识别解锁、声音解锁等,这些生物特征识别技术已经渗透到我们日常生活当中。然而,当这些都能被“仿造”时,小到个人财产,大到国家安全,面临的风险和隐患就越来越多。技术是把双刃剑,用对了地方会造福人类,用错了地方,遗祸无穷。当新技术的能力越来越大的时候,每一项“超级”新技术的推广应用都应当慎之又慎,该有的监管也要跟上。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部