发生什么事了?
人工智能技术的发明在包括新闻业在内的所有领域都发出了危险信号,而合成媒体则让情况变得更糟。本指南的重点是合成媒体、技术的定义,以及最令人震惊的新闻业的危险信号。
为什么它很重要:
构成新闻内容的各种形式的数据都处于口是心非的边缘,因为合成媒体——一种可以操纵文本、图像和视听的算法——目前可供那些寻求它的人使用。
借助这种基于人工智能的模型,“可以创建‘不存在的面孔和地点,甚至创建模仿人类语音的数字语音化身。’( Aldana Vales 2019)
想象一个世界,很难区分假新闻和真实新闻,因为假新闻的传播者可以改变“证据”以适应他们的议程。例如;如果特朗普、普京和金正恩宣战的视频在全球网上流传,没有人会不再相信第三次世界大战已经开始。尽管此类消息可能会被相关政府揭穿,但其造成的心理和经济恐慌可能比导弹的影响更大。
深入挖掘
合成媒体可以通过三种形式的生成人工智能来创建,即:生成对抗网络 (GAN)、变分自动编码器和循环神经网络。上述这些 GAI 分别用于照片、视频和文本生成。使用“生成”这个词是因为用这些算法创建的大多数媒体内容都不存在;然而,合成媒体也可用于复制。
Aldana Vales 表示,“生成对抗网络使用两个相互竞争的神经网络(神经网络是一种可以预测和建模复杂关系和模式的计算系统)。”
第一和第二网络分别充当生成器和鉴别器。鉴别器监督生成器,确保不遗余力。经过两人的一些“来回”修改后,制作的内容将与原始内容相似。
与生成对抗网络不同,变分自动编码器中的神经网络被称为编码器和解码器,因为该技术涉及视频内容的压缩和重建。 “解码器包括概率模型,可以识别两者之间可能存在的差异,以便它可以重建在编码解码过程中会丢失的元素。” (阿尔达纳维尔斯 2019)
循环神经网络通过“识别大量文本的结构”来发挥作用。这是文本自动更正手机 apk 中使用的方法。
这些技术应用于各种项目,例如: GauGAN、 Face2Face和 GPT-2 模型。合成媒体的最新应用可以在 Siri 或 Alexa 中找到。这些虚拟助手现在能够“将文本转换为音频并模仿人类语音”。
在 2017 年一篇题为“人工智能辅助色情片来了,我们都完蛋了”的文章中,Vice 揭露了假色情视频的传播,这不是问题,因为色情电影中描绘的大多数情节都是假的(笑);只不过这位演员的面孔是一位受欢迎的非色情女演员盖尔·加朵(神奇女侠)。此外,2018 年,“一段显示巴拉克·奥巴马总统谈论篡改视频风险的视频”在 Buzzfeed 上流传。这段视频的奇怪之处在于,人工智能生成的主题有奥巴马的脸和乔丹·皮尔的声音,这要归功于合成媒体。
反对合成媒体对新闻真实性的潜在危害的运动正在进行中;然而,“除了报道……新闻编辑室还专注于合成媒体检测和验证信息。”例如,《华尔街日报》创建了 新闻编辑室指南和 委员会来检测深度伪造品。 《纽约时报》最近 宣布正在探索基于区块链的系统来打击在线错误信息。 (阿尔达纳维尔斯 2019)
底线
合成媒体可以帮助新闻机构无缝打破语言障碍。此外,它还可能鼓励假新闻的传播。虽然不可能阻止科技巨头投入人工智能技术研究,但记者可以学习如何控制合成媒体造成的损害。