生命未来研究所等发起倡议活动,呼吁彻底禁止深度伪造

生命未来研究所等发起倡议活动,呼吁彻底禁止深度伪造
2024年02月28日 17:54 麻省理工科技评论

最近,在打击深度伪造(Deepfake)的一系列行动中,出现了一些非常令人鼓舞的消息。几周前,美国联邦贸易委员会(FTC,Federal Trade Commission)宣布,它正在制定新规定来禁止将深度伪造技术用于伪装他人。

在 2024 年即将到来的选举中,领先的人工智能初创公司和大型科技公司也公布了他们打击人工智能欺骗性使用的自愿承诺。

上周五,包括生命未来研究所(Future of Life Institute)、SAG-AFTRA 和 Encode Justice 在内的民间社会团体发起了一场新的倡议活动,呼吁彻底禁止深度伪造。

(来源:AI 生成)

这些行动是一个很好的开始。它们提高了公众的意识,但成败取决于具体的政策细节。英国和美国一些州的现行规定已经禁止创建和(或)传播深度伪造。

若人工智能平台被拿来创造冒充他人的内容,联邦贸易委员会将会认定该行为违法,并允许相关机构强迫罪犯退还他们从此类活动中赚来的钱。

但我们必须面对一个现实,针对深度伪造技术本身的禁令本质上是不可行的。数字权利组织 Access Now 的高级政策分析师丹尼尔·勒弗(Daniel Leufer)表示,我们没有一个开关按钮。

因为潘多拉的魔盒已经打开了。

大型科技公司因深度伪造技术造成的伤害而备受责备,但值得称赞的是,这些公司确实尝试了使用其内容审核系统来检测和阻止深度伪造色情内容的生成。

但这不意味着万无一失。据报道,此前以泰勒·斯威夫特(Taylor Swift)为目标的深度伪造色情内容就来自微软的工具。

更大的问题是,许多有害的深度伪造内容来自开源系统或其他人构建的系统,它们在 Telegram 等端到端加密平台上传播,无法追踪来源。

勒弗说,监管必须解决深度伪造全链条中的每一个参与者。这可能意味着,要求大大小小的公司不仅要对深度伪造的创建负责,还要对其传播负责。

因此,诸如 Hugging Face 和 GitHub 一类的“模型市场”可能需要被纳入有关监管的讨论中,以减缓深度伪造的传播。

这些“模型市场”使人们可以很容易地访问诸如 Stable Diffusion 之类的开源模型,人们可以使用这些模型来构建自己的深度伪造软件。这些平台已经在采取行动。

Hugging Face 和 GitHub 已经采取措施,让人们访问工具和制作有害内容变得更复杂。Hugging Face 也是 OpenRAIL 许可的积极支持者,该许可让用户承诺以某种方式使用这些模型。

Hugging Face 还允许人们将符合高技术标准的来源(provenance)数据自动集成到他们的工作流程中。

其他流行的解决方案包括更好的水印和内容来源技术,这将有助于检测深度伪造内容。但这些工具并非完美无缺。

勒弗说,要求所有人工智能生成的内容都要添加水印,这样的规则是不可能被严格遵守和执行的,而且水印最终也很可能会起到相反的作用。

在开源系统中,负责添加水印和来源数据的技术可能会被故意删除。这是因为每个人都可以访问模型的源代码,所以用户可以简单地删除他们不想要的任何技术。

勒弗说,如果只有最大的公司或最受欢迎的专有平台在其人工智能生成的内容上添加水印,那么反过来,人们会倾向于认为,没有水印就意味着内容不是人工智能生成的。这显然是不对的。

他说:“在所有可以添加水印的内容上强制打上水印,实际上会给最有害的东西增加可信度,而且它们来自我们无法干预的系统。”

我问勒弗,他是否看到了一些有潜力的方法,给了他希望。他思考片刻,最后建议从更大的角度看问题。

深度伪造只是我们在社交媒体上遇到的虚假信息问题的症状之一,他说:“这可能会促使机构真正采取措施监管这些平台,并大力推动舆论理解并提高透明度。”

作者简介:梅丽莎·海基莱(Melissa Heikkilä)是《麻省理工科技评论》的资深记者,她着重报道人工智能及其如何改变我们的社会。此前,她曾在 POLITICO 撰写有关人工智能政策和政治的文章。她还曾在《经济学人》工作,并曾担任新闻主播。

支持:Ren

运营/排版:何晨龙

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部