Deepfakes可能使用新技术,但它们基于旧的想法

AI资讯 2026-01-28 12:17:12 赫连斌育

"命运已经注定,去月球探索的人将留在月球上,愿逝者安息."

1969年,理查德·尼克松在电视上读到了这句话,当时他向全国宣布了Apollo任务失败的可怕消息,宇航员尼尔·阿姆斯特朗和巴兹·奥尔德林在尝试首次登月时丧生。

但只是在另一个现实中。尼克松从来没有说过这些话,因为Apollo11是一个历史性的成功,阿姆斯特朗、奥尔德林和他们的飞行员迈克尔·柯林斯安全返回地球。但是为时任总统尼克松准备了一个演讲,以防他们没有。短片《月球灾难事件》向我们展示了尼克松传递灾难性消息的令人难以置信的深度伪造是如何展开的。

[相关内容: 7种简单的方法可以让你自己知道登月真的发生了]

深度伪造是“深度”和“伪造”的结合,意思是深度学习。加在一起,它是音频或视频剪辑的标签,使用人工智能来描绘一个从未真正发生过的场景。通常,这包括一个人说或做一些他们从未做过的事情,通常是在没有被描绘者同意的情况下,哈尔西·勃艮德说。

尽管深度伪造是最近的发展,但它们建立在一系列扭曲的媒体之上,这些媒体在今天仍然作为低技术、有影响力的虚假信息存在。尽管深度伪造技术发展迅速,但人们正在努力减缓其传播速度。尽管深度伪造有许多恶意用途,但在人权和可访问性等领域也有一些有益的应用。纽约市运动图像博物馆正在进行的展览,深度伪造:屏幕上的不稳定证据,以月球灾难事件为中心探索这些主题。

在月球灾难事件中,理查德·尼克松告诉全国Apollo11失败了。

深度伪造和其他虚假信息的区别

为了制作一个人的深度伪造,创造者必须通过给计算机大量的视频、音频或图像来训练计算机,“目标”是你试图操纵其图像和声音的人,以及“来源”,即对你希望目标说或做的话或动作进行建模的演员。为了做到这一点,计算机使用了一种人工神经网络,其功能类似于人脑试图通过查看证据、寻找模式来解决问题,然后将该模式应用于新信息。神经网络于1943年首次概念化,可用于从写食谱到翻译复杂的期刊文章的所有事情。深度学习和深度伪造创作涉及多层神经网络,以至于计算机可以训练和纠正自己。

虽然深度伪造技术本身可能看起来有害,但社交媒体用户传播信息的速度有助于它,通常不会停下来质疑其来源。

“Deepfakes作为一种生产技术引起了很多担忧,”该展览的联合策展人、移动图像博物馆策展事务副主任芭芭拉·米勒说,“我认为,如果不看看信息传播的闪电般的速度,就不可能想到这种担忧。”

但是虚假信息的有效传播早于深度伪造甚至社交媒体。米勒补充道,该展览在“不稳定的非小说媒体”的悠久历史背景下展示了深度伪造,因此参观者不会认为人工智能驱动的操纵的兴起是媒体所有不信任的根源。

“只要媒体本身存在,这些技术就一直存在,”勃艮第说。

19世纪90年代,爱迪生制造公司急于通过相机捕捉美西战争来展示电影的能力。然而,19世纪的相机比今天的相机笨重得多,这使得拍摄战斗特写变得困难。因此,该公司在行进士兵和武器的真实镜头中散布了美国士兵迅速击败敌军团的舞台镜头。这些剪辑激起了美国观众的爱国主义情绪,他们没有被告知真实场景和虚假场景的区别。

即使在今天,您也不需要人工智能来创建有效且有影响力的虚假信息。

© 版权声明

相关文章

欧特克为全球150m学生和教育工作者提供免费软件和技术

该公司宣布,欧特克已向全球150m学生和教育工作者免费提供其软件和技术 十多年来,欧特克免费向经认证的机构和经过验证的学生和教育工作者提供其专业级工具,使他们能够获得世界各地建筑师、工程师、制造商和创造者使用的相同技术。
2026-01-29

Deepfakes可能使用新技术,但它们基于旧的想法 暂无评论