虚假语音邮件,也称为“深层声音”,目前在在线虚假信息领域非常流行。这些人工智能产生的虚假声音已成为影响舆论、散布混乱的有力工具。
在新罕布什尔州,在民主党和共和党初选期间,一些选民成为这些虚假语音信息的受害者。他们接到自称是乔·拜登的电话,敦促他们不要在初选中投票。这些电话非常有说服力,以至于许多收件人都被骗了。
“Deepvoices”是使用人工智能软件创建的,可以克隆并完美模仿声音。这些软件可以轻松在线获取,使每个人都可以创建虚假语音邮件。只需上传您想要模仿的人的声音样本,然后软件就会使用算法生成与原始声音几乎无法区分的音频。
困难在于识别这些虚假语音消息。与可以发现视觉不一致的深度伪造视频不同,伪造音频更难以检测。事实上,我们很难获得原始录音,这使得比较变得困难。此外,我们倾向于盲目相信我们所听到的,这使得错误信息更容易传播。
这些虚假语音信息的后果是深远的。他们可以通过操纵选民和抹黑候选人来影响选举结果。此外,它们还加剧了对在线媒体和信息的不信任和怀疑,破坏了我们对民主的信任。
面对这个日益严重的问题,开发可靠的检测工具来识别虚假语音消息至关重要。 Loccus.ai 和 Reality Defender 等公司已经开始走这条路,但要让每个人都能使用这些工具,还有很多工作要做。
总之,虚假语音消息或“深声”已成为一种强大的虚假信息工具。它们易于创建且难以识别,这使得它们对民主和公众对在线信息的信任构成严重威胁。迫切需要找到解决方案来打击这种新形式的操纵行为。