视频 AI 生成技术的最新进展,已经开始产生一系列令人忧心的社会影响

视频 AI 生成技术的最新进展,已经开始产生一系列令人忧心的社会影响
2024年10月08日 16:23 书香可人
#能生成人裸照的性犯罪从韩国开始泛滥#视频 AI 生成技术的最新进展,已经开始产生一系列令人忧心的社会影响。不少精通这些技术的年轻人被发现,正在未经他人同意的情况下制作女性(大多是自己同龄人)的色情图像。今年5月,首尔大学毕业生涉嫌利用深度伪造技术换脸合成色情照片和视频,在社交媒体“电报”上建立了近200个网络聊天室,共参与制作、传播约1700份非法照片和视频。3个月后,韩国仁荷大学再次发生深度伪造性犯罪的案例。超过1200名参与者在“电报”上合成深度伪造色情图像,并利用这些内容对女性进行敲诈和羞辱。8 月 28 日,多位韩国女性在中国社交媒体平台发帖讲述“深度伪造”(Deep Fake) AI 换脸的大规模犯罪事件,引发大量关注与讨论,多个相关词条接连登上热搜。根据其描述,韩国长期发生产出和传播深度伪造色情内容的犯罪行为,而即时通讯软件 Telegram 因其加密通信和群组聊天功能受到这些犯罪者的青睐。进入“电报”(以保密性著称的即时通信软件)聊天房,上传一张脸部照片,不到5秒钟,采用了深度伪造技术(Deepfake)的机器人(bot)就能合成一张真假难辨的照片——就当前而言,深度伪造技术已经可以把不同人的声音、面部及身体像拼图一样随意拼接,制作成各种影像乃至视频。2024年8月,大量利用深度伪造制作色情合成物的“电报”聊天群在韩国的社交媒体上曝光,受害者遍布韩国全国,涉及明星、军人、老师、护士、学生等不同群体,多为女性。但这并非韩国本土首次出现深度伪造性犯罪。2019年N号房事件被曝光时,曾有媒体报道过一些“电报”聊天房正利用合成技术制作色情影像。此后深度伪造性犯罪一度淡出公众视野,但并未真正消失。在备受关注的“首尔大学深度伪造性犯罪”事件中,受害女性自己收集整理证据,用长达两年五个月的时间将加害者送上法庭。然而,有关深度伪造的数码性犯罪不仅没有得到遏制,反而愈演愈烈。一出民间倒逼官方的奇观因此在社交媒体上演。从2024年8月末开始,韩国女性网友开始不断将受害者的经历翻译成不同的语言,在互联网上传播,几个深度伪造话题下的推文数量都超过了三万,一些热门推文的阅读量已突破一千万。“正是由于韩国媒体的沉默,我们才不得不使用英语写作。这么做是为了迫使他们报道而非试图掩盖它。”。“韩国的换脸问题太严重了。”“现在无法预测有多少女性因深度伪造技术而受害。”8月末,随着两位韩国女生在微博发文求助,“韩国新版N号房”等话题在中文互联网传播开来,并迅速占领热搜首位。“韩国媒体和司法系统不会做他们应该做的事情,除非他们因为没有采取正确的行动而受到国际社会的抨击。”一位网友戏谑道。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部