【韩国爆发大规模AI假裸照危机】近期,韩国政府部门就多起虚拟色情图片案展开调查,一个庞大的犯罪网络被曝光,相关受害者多达数百人,其中不少是未成年人。这些受害人的形象被不法分子利用AI技术“加工”制作成色情图片和视频,随后在互联网上大肆传播,制作团队以此谋取暴利。当地官员表示,韩国目前的保护措施还不够完善,无法消除AI生成的色情内容所带来的威胁,这些内容中甚至包括由青少年或年龄更小的儿童形象制作的虚拟内容,这让受害者家属异常愤怒。由于此次事件中的部分犯罪者并未成年,因此韩国教育部正在做进一步的审查,议员们也在寻求堵上相关法律的漏洞,比如将目前的惩罚范围扩大到故意传播非法内容者之外。担任过检察官的韩国总统尹锡悦在本周二的内阁会议上表示,可能有人认为深度虚拟内容只是单纯的恶作剧,但它们显然是在匿名掩护下利用技术的犯罪行为,任何人都可能是受害者!本月初,一次警方调查使得一个聚焦某所大学的社交软件Telegram群组进入大众视野后,此类事件的公众关注度急剧上升。政府部门称,该群组自2020年以来一直活跃,约有1200名成员,这些成员不仅会通过各类社交软件分享计算机生成的虚拟色情图片,还分享其他个人信息,例如涉事对象的电话号码、地址和学生证号码。据报道,该群组中分享了至少30名在校生和往届学生的虚拟色情图片。许多Telegram类型的社交软件群组都是按学校名称或地区分类,以便用户轻松识别共同的熟人并制作可以分享的假裸照。据官员和活动人士称,为进入这些群组,一些用户被要求提供一名女性的照片,这些照片通常是从女同学的社交媒体账户中截取。这些互联网上的不少群组还会使用带有加密手段的社交软件沟通,这为警方的案件侦办带来了不小的阻力。根据志愿者仔细梳理这些群组聊天记录后编制的在线统计数据,大约有500所各类院校和单位都可能受到影响,甚至一些中小学生也成了这些犯罪团伙的受害人。身份盗用防范公司Security Hero于2023年出具了一份报告,该报告分析了100多个网站上的约10万条视频。经过统计后得出,在网上发布的深度伪造色情视频中,韩国女歌手和女演员占比超过50%,而无辜的学生群体也正在成为新的被侵害对象。尽管韩国政府一再表示将严厉打击此等犯罪,但由于韩国法律对于利用AI技术的相关犯罪行并无明确惩罚条款,因此只能利用现有法律进行补充解释,这导致对这些犯罪团伙的惩戒力度和打击范围都严重不足。