专家视点

兰德发布《人工智能、深度造假与虚假信息》报告

日期:2022-08-30

|  来源:【字号:

 

202276日,美国兰德公司发布《人工智能、深度造假与虚假信息》报告,提出人工智能等驱动技术为深度造假视频、语音克隆、深度造假图像和生成文本提供了基础。报告强调了深度造假构成的威胁和影响,并概述了对政策制定者的建议。

1)基于人工智能的虚假信息工具的技术和能力

造假视频的图像多数是通过生成对抗网络(GAN)生成,GAN系统由一个从随机噪声生成图像的生成器和一个判断输入图像是真实的还是由生成器生成的鉴别器组成。现在,很多网页都提供对深度伪造服务的访问,热门网站包括RefaceMyHeritage等。

语音克隆是使用深度伪造的另一种方式,涵盖各种在线和电话应用程序,例如Celebrity Voice CloningVoicer Famous AI Voice Changer

深度伪造图像最常见的形式是伪造头像照片,这些图像可以通过某些网站轻松访问,例如生成照片,允许用户快速轻松地构建假头像。

通过使用自然语言计算机模型,人工智能可以生成栩栩如生的文本。像这样的文本生成程序可能会被美国的对手用来大规模制作基于文本的宣传,还可以采用类似于弹幕干扰的策略大量制作关于特定主题的假新闻故事,也适用于在电子战技术中对手用噪音使雷达系统失明。

2)风险和影响

鉴于社会对视频片段的信任程度以及此类片段的应用,不难想象深度伪造不仅会影响社会,还会影响国家安全。可以操纵选举,可能会加剧社会分裂,降低对机构和当局的信任,破坏新闻业和可信赖的信息来源。

深度伪造仍没有被大规模使用的原因如下:深度伪造的潜在威胁未知;高质量视频的制作需要专业的技术;制作时间长,会限制使用该技术的情况的有效性;深度伪造视频需要大量的训练数据;对手可以开发一个定制的生成模型来阻止深度伪造内容;深度伪造视频能够被成功检测。

3)建议

首先,深度伪造的对抗性将涉及权衡机会、收益和风险的决策计算,此类决策可以通过兵棋推演和其他练习来建模。其次,美国政府、研究界、社交媒体平台和其他私人利益相关者应继续投资并采取其他措施来增强检测技术。第三,应继续加快推进媒体素养工作。第四,必须继续努力开发新的检测技术,以帮助记者、媒体组织、公民和其他非技术专家检测和研究深度伪造内容。

信息来源:

https://www.rand.org/pubs/perspectives/PEA1043-1.html

附件: