cnBeta.COM - 中文业界资讯站 ( ) • 2024-04-18 05:10

与 2016 年和 2020 年相比,由于初选季的竞争较少,外国对美国总统选举的恶意影响起步较慢。俄罗斯的努力主要集中在破坏美国对乌克兰的支持,而中国方面则试图利用社会两极分化,削弱人们对美国民主制度的信心。

此外,人们担心复杂的人工智能深度伪造视频会成功操纵选民,但这一担心尚未得到证实,而较简单的"浅层"人工智能增强和人工智能音频伪造内容可能会取得更大成功。这些见解和分析包含在今天发布的第二份微软威胁情报选举报告》中。

俄罗斯在破坏美国对乌克兰的支持方面投入巨大

俄罗斯的影响力行动(IO)在过去两个月中愈演愈烈。微软威胁分析中心(MTAC)已追踪到至少有 70 名俄罗斯人员利用传统媒体和社交媒体以及隐蔽和公开的活动,从事以乌克兰为重点的虚假信息活动。

例如,微软追踪到的名为 Storm-1516 的行为者使用多种语言的一致模式,成功地向美国受众洗白了反乌克兰的言论。通常情况下,该组织会遵循三个阶段的流程:

  1. 个人以举报人或公民记者的身份出现,在专门建立的视频频道上播出叙述内容

  2. 然后,一个看似无关联的全球秘密管理网站网络对该视频进行了报道

  3. 然后,俄罗斯外籍人士、官员和同行者会扩大这种报道。

最终,美国受众很可能在不知情的情况下重复和转发这些虚假信息。


图 1:Storm-1516 向美国受众空间发送虚假信息的流程

中国试图扩大社会分歧,破坏美国民主制度

中国在以选举为重点的活动中采用了多层次的方法。它利用现有的社会政治分歧,将其攻击与党派利益结合起来,鼓励这些信息的转发。


图 2:与中国有关联的仿冒账户冒充美国选民,发布以美国大选为主题的内容

中国还在与选举有关的影响活动中越来越多地使用人工智能,这是它与俄罗斯的不同之处。俄罗斯对人工智能的使用在影响方面不断发展,而与中国有关联的行为体则利用人工智能生成技术有效地创建和增强图像、备忘录和视频。

伊朗迄今活动有限,经常在选举后期搅局

伊朗过去的行为表明,它很可能会在临近美国大选日时发起严重的网络影响力行动。德黑兰的选举干预战略采用了一种独特的方法:将网络和影响力行动结合起来,以产生更大的影响。中东地区持续不断的冲突可能意味着伊朗将改变其针对美国的计划目标和行动。

2024 年大选中的生成式人工智能--风险依然存在,但与预期不同

自 2022 年末生成式人工智能民主化以来,许多人担心这种技术会被用来改变选举结果。MTAC 与微软的多个团队合作,对民族国家在影响行动中恶意使用生成式人工智能的情况进行识别、分流和分析。

简而言之,迄今为止,使用世界领导人和候选人的高制作合成深度伪造视频并未造成大规模欺骗和广泛混淆。事实上,我们已经看到,受众更容易倾向于并分享简单的数字伪造品,而在过去十年中,影响力行动者一直在使用这些数字伪造品。例如,印有真实通讯社标识的虚假新闻报道。

受众有时确实会被人工智能生成式内容所吸引,不过成功的场景有很大的细微差别。我们今天的报告解释了以下因素如何导致生成式人工智能在 2024 年的选举中面临风险:

  • 人工智能增强内容比完全由人工智能生成的内容更具影响力

  • 人工智能音频比人工智能视频更具影响力

  • 声称来自私人场合的虚假内容(如电话)比来自公共场合的虚假内容(如世界领导人的深度伪造视频)更有效

  • 在危机和突发新闻期间,虚假信息的传播更具穿透力

  • 模仿知名度较低的人比模仿世界领导人等知名度很高的人效果更好

随着 11 月的临近,我们预计俄罗斯、伊朗和中国都将加快影响和干扰活动的步伐,因此在选举日之前,MTAC 将继续识别和分析恶意使用生成式人工智能的情况,并逐步更新评估。需要特别注意的一点是:如果有一种复杂的深度伪造技术用于影响 11 月的选举,那么用于操纵选举的工具很可能尚未进入市场。几乎每天都有越来越先进的视频、音频和图像人工智能工具进入市场。上述评估是根据 MTAC 迄今观察到的情况做出的,但我们很难知道从现在到 11 月,我们会从生成式人工智能中观察到什么。

上述评估是根据 MTAC 目前的观察得出的,但从现在到 11 月,随着人工智能的发展以及俄罗斯、伊朗和中国地缘政治目标的演变,2024 年大选的风险可能会随着时间的推移而发生变化。

阅读原文:

https://blogs.microsoft.com/on-the-issues/2024/04/17/russia-us-election-interference-deepfakes-ai/