谷歌想用特殊徽章对抗深度伪造
在短短几年内,人工智能生成的名人和政治家的深度伪造已经从学术期刊的局限升级到主要社交媒体网站的热门页面。错误信息专家警告说,这些工具与社交媒体平台上紧张的审核团队相结合,可能会给本已充满争议的2024年选举季增添一层混乱和困惑。
现在,谷歌正式加入了一个由科技和媒体公司组成的快速发展的联盟,该联盟致力于标准化一个数字徽章,以揭示图像是否是使用生成性人工智能工具创建的。如果广泛推广,由内容来源和真实性联盟(C2PA)牵头的“内容凭证”可能有助于在互联网上传播的欺骗性人工智能生成的政治深度伪造增加的情况下,增强消费者对照片和视频来源的信任。谷歌将于本月加入C2PA,成为指导成员,这使他们与奥多比、微软、英特尔和英国广播公司处于同一家公司。
在一封电子邮件中,谷歌发言人告诉PopSci,该公司目前正在探索在其产品套件中使用该标准的方法,并将在“未来几个月”分享更多内容这位发言人表示,谷歌已经在探索将内容凭证纳入谷歌图像搜索的“关于此图像”功能。谷歌对这些凭证的支持可能会提高它们的受欢迎程度,但它们的总体使用仍然是自愿的,而不是任何具有约束力的联邦深度伪造立法。这种缺乏一致性给了深度伪造创作者一个优势。
什么是内容凭证?
C2PA是一个创建于2019年的全球标准机构,其主要目标是创建技术标准来证明一段数字内容最初是在哪里以及如何创建的。领导内容真实性倡议(CAI)的奥多比及其合作伙伴已经担心人工智能生成的媒体可能会侵蚀公众信任并在网上放大虚假信息,而在OpenAI的DALL-E等广受欢迎的消费者生成人工智能工具获得动力之前的几年。
这种担忧催化了内容凭证的创建,一个小徽章公司和创作者可以选择附加到图像的元数据上,以披露谁创建了它以及图像是何时制作的。它还向观众披露数字内容是否是使用生成人工智能模型创建的,甚至命名使用的特定模型,以及它是否在以后进行了数字编辑或修改。
内容凭证支持者认为,该工具创建了一个“防篡改元数据”记录,该记录随数字内容传播,可以在其生命周期的任何时候进行验证。实际上,大多数用户会看到这个“透明图标”弹出一个小徽章,图像角落出现字母“CR”。微软、英特尔、ARM和英国广播公司也是C2PA指导委员会的成员。
“随着数字内容成为事实上的交流方式,加上人工智能创作和编辑工具的兴起,公众迫切需要他们在家里、学校、工作场所、无论身在何处遇到的内容背后的透明度,”奥多比总法律顾问兼首席信托官达纳·拉奥在发给波普西的一份声明中说。“在一个所有数字内容都可能是假的世界里,我们需要一种方法来证明什么是真的。”
用户如果看到带有内容凭据的图像,可以单击徽章以检查其创建时间以及此后可能发生的任何编辑。然后,每个新编辑都会绑定到照片或视频的原始清单,该清单会随照片或视频在网络上传播。
例如,如果记者要裁剪一张以前使用Photoshop编辑的照片,对图像的这两个更改都会在最终清单中记录下来。CAI表示,该工具不会阻止任何人截屏图像,然而,该截图不会包含原始文件中的CAI元数据,可能会向观众暗示它不是原始文件。该符号在图像上是可见的,但也包含在其元数据中,理论上,这应该可以防止麻烦制造者使用Photoshop或其他编辑工具来删除徽章。
如果图像上没有可见的徽章,用户可以复制它并将其上传到此内容凭据验证链接,以检查其凭据并查看它是否随着时间的推移而被更改。如果媒体在其生命周期的某些部分以不符合C2PA规范的方式进行编辑,用户将看到“缺失”或“不完整”的标记。 Content Credential功能可以追溯到2021年。此后,Adobe向使用Adobe的Firefly AI图像生成器制作图像的Photoshop用户和创作者提供了该功能。微软计划将该徽章与其Bing AI图像生成器创建的图像一起使用。拥有Facebook和Instagram的Meta同样宣布,它将增加一项新功能,让用户在其平台上分享AI生成的视频或音频时披露。Meta表示,它将在“未来几个月”开始应用这些标签
为什么谷歌加入C2PA很重要
谷歌参与C2PA很重要,首先也是最重要的,因为这家搜索巨头在网上留下了巨大的数字足迹。该公司已经在探索在其广泛的在线产品和服务中使用这些徽章的方法,其中特别包括YouTube。C2PA认为,谷歌的参与可能会让更多人看到这些证书,这可能会推动人们更广泛地认识到该工具是验证数字内容的一种可行方式,尤其是在政治深度伪造和被操纵的媒体在网上获得关注的情况下。拉奥将谷歌的合作描述为提高内容凭证意识的“分水岭时刻”。
“谷歌的行业专业知识、深度研究投资和全球影响力将帮助我们加强标准,以解决围绕内容来源使用的最紧迫问题,并接触到世界各地更多的消费者和创作者,”拉奥说。“在谷歌等公司的支持和采用下,我们相信内容凭证可以成为我们所需要的:一种简单、协调、通用的理解内容的方式。”
三个月前,谷歌宣布将在使用其DeepMind AI Lyrica模型创建的音频上附加一个带有SynthID的数字水印。DeepMind表示,在这种情况下,音频水印不应该被人耳听到,同样也不应该扰乱用户的聆听体验。相反,它应该作为一种更透明的保护措施,保护音乐剧免受人工智能生成的复制品的影响,或者证明一个有问题的剪辑是真实的还是人工智能生成的。
深度伪造造成的混乱可能会使已经有争议的2024年选举变得更糟
科技公司和媒体公司正在争先恐后地建立可信的方法来验证在线数字媒体的来源,以应对专家警告的虚假信息可能会扭曲2024年选举周期。共和党总统候选人唐纳德·特朗普和佛罗里达州州长罗恩·德桑蒂斯等主要政治人物都已经使用生成人工智能工具互相攻击。最近在新罕布什尔州,人工智能语音克隆技术被用来让它看起来像是乔·拜登总统打电话给居民,敦促他们不要在1月份的初选中投票。此后,该州总检察长办公室将自动电话与德克萨斯州的两家公司联系起来。
但威胁也不仅限于选举。多年来,研究人员警告说,越来越令人信服的人工智能生成的深度伪造图像和视频在网上的猖獗传播可能导致一种被称为“骗子红利”的现象,消费者怀疑他们在网上看到的任何东西是否真的像看起来的那样。律师、政治家和警察已经错误地声称合法的图像和视频是人工智能生成的,试图赢得诉讼或定罪。
内容凭证帮助可能会有所帮助,但他们缺乏牙齿
即使有谷歌的支持,内容凭证仍然完全是自愿的。Adobe和任何监管机构都没有强迫科技公司或其用户尽职尽责地在其内容中添加出处凭证。即使谷歌和微软确实使用这些标记来披露使用他们自己的特定人工智能生成器制作的内容,目前也没有什么能阻止政治坏人使用其他开源人工智能工具拼凑一个深度伪造,然后试图通过社交媒体传播它。
在美国,拜登政府已指示商务部为人工智能水印制定新的指导方针,以及构建生成人工智能模型的科技公司必须遵守的安全标准。国会议员提议联邦立法,要求人工智能公司在所有人工智能生成的内容上包含可识别的水印,但尚不清楚这是否可行。
科技公司正在迅速采取措施防止深度伪造,但随着不到七个月的重大总统选举,专家们一致认为,令人困惑或误导的人工智能材料可能会发挥一定作用。
谷歌想用特殊徽章对抗深度伪造