最近,有网友发消息称,“张文宏是不是带货了?”视频中,张文宏在卖一种蛋白棒,家里的老人信以为真已经下单,还转发了很多群。
记者核实发现,这个账号名为“般画234”。在视频中,“张文宏”反复介绍一种产品,口型是他的,声音也是他的。
但稍微懂点AI的小伙伴们一眼就能分辨,这是AI合成的视频。
记者发现,这段视频已在该账号内不可见。但商品橱窗内还保留着蛋白棒售卖的页面,并显示已售出1266件。
对此,有媒体发表评论称,现在的科技,只要有一段张文宏正常说话的视频,再把你想要他说的话输入,AI一处理就能自动生成带货视频。不法账号趁着深夜把这种带货视频放出,到了早上再把视频屏蔽掉,这样买的人就投诉无门,而且也不太容易被发现,但这么做,毫无疑问就是在犯罪。
类似案例:
“假靳东”骗老人上当
近年来,AI剪辑冒充明星的案例屡见不鲜,也有不少人因此上当。
今年11月,江西一位老人来到银行办理银行卡,但手续不全又不肯离开,警方到现场后,老人表示要到银行贷款200万元给自己的男朋友“靳东”拍戏。
“我是在短视频平台上认识的‘靳东’,‘靳东’向我表白了,并用两人合照发布了短视频,现在他拍戏需要200万元,我要去帮助他。”老人略显激动地说道。
民警随即拿起老人的手机进行查看,发现老人所谓的大明星“靳东”是骗子冒充的,其所发布的视频也是由电脑AI合成的,但老人对网络知之甚少,对于骗子所说所做深信不疑。
民警向老人进行耐心劝导,通过展示网络上一些冒充“靳东”诈骗的新闻和现场利用AI合成照片等方式,老人才醒悟过来。
今年10月,老牌港星黄百鸣在社交媒体上发表声明称,有人盗用他过去的影片,并利用人工智能技术替换掉原有声音,假借自家名义代言一个不知名的药膏品牌,这种行为纯属欺诈,旨在误导公众并从中取利。
如何辨别屏幕里是真人还是AI合成人?
蚂蚁集团天玑实验室安全算法专家朱凯建议,通过遮挡结合“动起来”的方式,来识别到底是真人还是“数字人”——比如,在摁鼻子或摁脸的同时左右摇晃头部,这就是“动起来”的一种方式。目前很多“AI换脸”的基础是被模仿者的照片,照片是平面的,所以生成的“数字人”以正面、平面为主。当人脸动起来时,会呈现出脸部的三维结构,算法只能基于平面的照片推测三维结构,按照现有的技术手段,推测结果大多不太理想,从而让人发现漏洞。
此外,可以要求对方在脸部挥手、用手指比数字等。真人做这些动作时,脸部表情、手部动作都很自然,如果是“数字人”,很可能出现问题。虽然现有的AI技术有能力生成脸部被部分遮挡的静止画面,但“挥手”“比数字”意味更多的动作,目前技术还没办法实时生成完美效果,从而出现破绽。
值得注意的是,以上鉴别方式都是基于现有算法的局限性。未来随着AI技术的发展,“动起来”“挥手”“比数字”等有可能难不倒新技术,“数字人”同样能顺利完成以上动作,从而更加具备迷惑性。所以,防范AI诈骗,还是要从自己出发,做好信息保护,提高警惕。
例如,不要泄露个人信息,尤其要注意图像、声音、指纹等生物信息的保护。“AI换脸”的数据基础是被模仿人的照片、视频等,个人公开在外的照片、视频越多,意味着AI算法参考的数据越多,生成的“数字人”会更真实。
同时,在涉及资金交易等场景下,需要多留心眼,不轻易相信视频、声音。很多时候,传统的识别方式要比技术识别更有效。例如,可以询问对方只有当事人之间知道答案的问题、共同经历的事情等。
来源:《中国经营报》综合自《北京青年报》、侬好上海、上观新闻、@晏秋秋视频号等
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有