为什么水印解决不了AI生成图像的难题?

为什么水印解决不了AI生成图像的难题?
2024年03月29日 17:18 至顶网

不知道你有没有注意到,AI技术的快速发展已经在内容生成领域掀起又一波浪潮,范围涵盖超现实图像、引人入胜的视频乃至量大管饱的各类文本。然而,这波技术扩散也打开了潘多拉魔盒,释放出大量潜在的错误信息与欺诈内容,不断挑战着普通民众辨别真伪的能力。

这种关于人类即将被合成内容彻底吞没的担忧当然有其依据。自2022年以来,AI用户们总计创作出超过150亿张图像。单从数字本身的体量来看,按照2022年之前的发布速度来计算,人类需要150年才能制作出同等数量的照片。

AI技术生成的内容不仅数量惊人,所产生的影响也才刚刚开始冲击我们的现实生活。由于生成式AI图像与内容规模巨大,历史学家将不得不将2023年之后的互联网视为与此前完全不同的新事物,类似于原子弹的出现开始影响放射性碳定年。谷歌图像搜索已经在显示新一代AI工具生成的结果,而我们也看到越来越多号称是反映以色列/加沙冲突期间战争罪行的画面,其实只是AI生成的煽动性产物。

在AI内容中嵌入“签名”

首先给不熟悉相关技术的朋友们做点说明,deepfakes的本质就是利用机器学习(ML)算法生成伪造内容。这些算法能够模仿人类的表情和声音创作出逼真的画面,而上个月刚刚发布的OpenAI文本到视频模型Sora预览资料进一步表明,虚拟现实正在以我们难以想象的速度与客观现实相混合,快速开启一个真伪难辨的新时代。

为了以先发制人之势控制住局面,也是为了应对日益增长的关注和担忧,科技巨头纷纷下场介入,希望通过为AI生成内容添加“水印”的方式解决问题,消弭生成式技术在民众中引发的抵触情绪。

今年2月初,META公司就宣布一项新举措,计划在Facebook、Instagram和Threads等平台上对使用其AI工具创建的图像进行标记,具体包括可见标记、不可见水印及详尽元数据以强调内容来自AI生成。谷歌和OpenAI也紧随其后发布了类似的措施,旨在将“签名”嵌入至AI系统生成的内容当中。

这些举措也得到了开源互联网协议内容来源与真实性联盟(C2PA)的支持。该联盟由ARM、BBC、英特尔、微软、Truepic和Adobe于2021年成立,旨在追踪数字文件的来源并正确区分正确内容与篡改/伪造内容。

这些努力都是为了提高内容创作的透明度与问责性,当然代表的是善意的管控与引导。可虽然其初衷是好的,但是否同样存在操之过急的隐患?或者说,签名和水印真的能够防范迅速发展的生成式AI技术的潜在滥用?还是仅仅只是虚与委蛇、缓和矛盾的遮羞布?

谁来决定什么是真实?

之所以有此一问,是因为在开发此类工具时,我们都面对着非常现实的困境:如果不把检测工具交给创作者,那其如何广泛发挥作用?而如果落到创作者手中,这些系统本身会不会被恶意人士所滥用?于是问题再次回到原点,到底该由谁来决定什么是真实?这是个任何参与讨论的人都无法回避的矛盾,相信关注AI生成浪潮的朋友也或多或少注意到了这背后的冲突。

今年发布的Edelman信任晴雨表也揭示出公众对于技术和创新信任度方面的最新变化。报告强调称,人们对于机构的创新管理工作普遍抱有疑虑,结果显示全球受访者中认为创新管理不善的比例(39%)几乎达到管理良好比例(22%)的两倍,其中很大一部分人对于技术创新的突飞猛进表示担忧,怀疑技术变革的步伐不一定能给全社会带来助益。

报告还强调公众对于企业、非政府组织及政府部门引入及监管新技术的方式普遍持怀疑态度,对于科学在政治和经济利益之外的独立地位也有诸多担忧。

技术的发展轨迹已经一再证明,其功能先进水平往往与管理政策的发展互为消长、共同推进。而如果想要让水印真正成为保护人们免受愚弄的利器,我们首先需要从扭转普罗大众对创新缺乏信任的现状入手。

但相信你也能看到,这是件说起来容易、做起来却相当艰难的工作。就在上个月,谷歌Gemini因根据影子提示词(即通过提示词诱导AI模型接受特定偏见的方法)生成不当图像一事而遭受严厉批评。一名谷歌员工在社交媒体X上表示,这是该公司遇到过的“最尴尬”的情况,其模型故意不生成白人图像的倾向也导致其陷入文化争议的前沿和漩涡中心。尽管谷歌随后为此致歉,但现实损害已经造成。

CTO自己不了解AI模型使用了什么训练数据?

最近,OpenAI公司CTO Mira Murati接受《华盛顿邮报》采访的视频开始在网上疯传。在视频中,她被问及Sora模型使用到哪些训练数据。Murati回应称使用了“公开数据与许可数据”。但在被问及具体使用到哪些数据时,她承认自己也不是太确定。

考虑到训练数据质量对于AI模型的重大影响,人们认为CTO在决定投入资源开发视频生成工具之前,肯定应该先把这个问题考虑清楚。她随后表示自己无法回答这个问题,这种态度进一步敲响了警钟。从采访视频来看,我们只有两种合理的推测:她要么是个尸位素餐的不称职CTO,要么就是个满嘴谎言的CTO。

随着生成式AI技术的大规模推广,类似的情况肯定还会反复出现。但如果想要真正扭转信任危机,我们首先需要保证将管控标准落实到位。而理想的起点,就是向公众们解释这些工具为什么会出现、能用来做什么。除此之外,采取措施让个人和实体在出现问题时承担责任,也就是强调对生成结果的统一标记,则是另一项有益的补充。此外,当事情不可避免引发问题时,还必须就为什么会出现此种情况进行公开交流。总而言之,自始至终让一切流程保持透明才是解决问题的关键所在。

如果没有这样的举措和诚意,我担心水印将只是一块遮羞布、一张创可贴,无法在根本上解决错误信息和对合成内容的不信任等核心问题。水印不足以成为验证真实性的强大工具,而很可能仅仅代表一种象征性的姿态,并遭到那些意图欺诈之人的回避、或者被可能已经受到蒙蔽者们的忽视。

从目前的情况来推断(甚至是观察可见),deepfakes对于全球选举活动的干预很可能成为新一年中影响最深远的AI故事。考虑到这一年内全球将有半数以上的人口参与投票,而公众对于规模机构的信任仍处于最低点,我们必须迅速出手、解决这些迫在眉睫的问题,之后才能指望水印真正发挥作用、而不只是表明“我们正在处理”的敷衍手段。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部