惩治AI造假,关键不是教大家怎么辨真假,而是如何严惩伪造传播、牟取不法利益的侵害者
没想到,张文宏医生竟然也“中招”了AI带货造假。近日,有网友发现,“张文宏”医生开始带货,卖的是一种蛋白棒。基于对张医生的信任,家里的老人信以为真已经下单。可是从视频看来,尽管口型和声音都模仿得惟妙惟肖,可稍加甄别,不难发现AI伪造手法的拙劣。所谓张医生真人带货,实为AI合成的深度伪造。
这一次,群众雪亮的眼睛迅速识破了骗局。据媒体报道,目前,发布“张文宏”深夜带货的账号,已下架该视频。然而,商品橱窗内仍保留了“张文宏”带货的战绩,累计售出1266件。不难想象,被骗者发现真相后的沮丧与失落。
近年来,类似的AI合成冒充名人的骗局,上当者比比皆是,普罗大众更是防不胜防。
根据报道,今年11月,江西一位老人到银行办理业务,声称要贷款200万元给男朋友“靳东”拍戏。经民警调查发现,老人手机里的“靳东”实为骗子冒充,其所发布的视频也是由AI合成。今年10月,老牌港星黄百鸣通过社交媒体郑重声明,有人盗用其过去影片,利用AI“李代桃僵”替换声音,代言一个不知名的药膏品牌。
更有甚者,已然过世的名人,也有被“借尸还魂”带货的。有人揭秘此类账号牟取暴利的手段,即利用公众对已故名人的信任,借助AI手段合成“复活”,让他们给带货的产品做信任背书。如此不择手段,连逝者都不放过,实在令人不齿。
科技本应向善,可现如今,AI诈骗不断涌现,技术仿佛成了磨刀霍霍向韭菜的镰刀。据《2024人工智能安全报告》显示,2023年基于AI的深度伪造欺诈增长了3000%,仅今年上半年,AI诈骗案案值已超过1.85亿元。“股神”巴菲特曾将AI的出现,比作放出了关在瓶子里的精灵。那么,当精灵屡屡成为欺诈的恶魔,我们该何去何从?
不法分子利用AI合成技术“换脸”“换声”,深度伪造,导致受害者“耳听为虚”“眼见也非实”,即便在今天看来略显拙劣的手段,只会让老年人上当受骗,难保终究有一日,迭代的技术不会让长期浸淫网络世界的达人也“溺水”中招。
因而,及时打击阻断此类诈骗方式,实现“天下无诈”、AI向善,显得十分迫切。首先,相关平台必须强化落实平台方责任,严格执行《互联网信息服务深度合成管理规定》,对可能导致公众混淆误认的,平台需要及时做出技术甄别,在合理位置自动打上标签水印等明显标识;对于明显涉及欺诈等非法目的,或带货、打广告等可能误导消费者的视频内容,平台必须把好第一关,以系统式应对与治理,降低AI欺诈等可能性,保护消费者的利益。
其次,魔高一尺道高一丈,AI诈骗的手段再高深,技术再科幻,实际加害方仍是现实世界中的人。那么,惩治AI造假,关键不是教大家怎么辨真假,而是如何严惩伪造传播、牟取不法利益的侵害者。
唯有法律才能反制不法。就此而言,让法律“长出牙齿”,撕掉不法者的“AI面具”,将其罚到肉疼、触及刑法的要及时移交司法机关,不断提高技术滥用成本,才有可能彻底震慑住AI背后蠢蠢欲动的“黑手”。
红星新闻特约评论员 林静
编辑 汪垠涛
红星评论投稿邮箱:hxpl2020@qq.com
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有