返回上一页  首页 | cnbeta报时: 20:37:59
AntiFake技术可以防止你的声音被AI深度伪造
发布日期:2023-11-29 06:13:11  稿源:cnBeta.COM

Deepfake 人工智能系统最险恶的功能之一是能够复制一个人的声音,即使只是一段简短的录音。 人们声音的深度伪造版本以及伪造的视频可以用来使其听起来和看起来好像政客或名人说了一些他们实际上从未说过的话。此外,还有一些情况是,人们接到诈骗电话,其中朋友或家人的深度伪造声音要求他们因某种紧急情况尽快汇款。 此外,复制的声音可用于绕过语音识别安全系统。

图片.png

然而,一种名为 AntiFake 的新软件工具可以帮助防止这种情况发生。

已经有技术可以确定所谓的声音是否是深度伪造的,AntiFake 是最早阻止此类伪造声音产生的系统之一。 简而言之,它是通过让人工智能系统更难读取真人声音录音中的关键声音特征来实现这一点。

AntiFake-workflow.jpg

“该工具使用了一种对抗性人工智能技术,该技术最初是网络犯罪分子工具箱的一部分,但现在我们反过来用它来防御他们,”发明者、圣路易斯华盛顿大学计算机科学与工程助理教授张宁说。

Ning-Zhang-Record.jpg

 “我们只是稍微弄乱了录制的音频信号,对其进行扭曲或扰动,使其对人类听众来说仍然听起来不错,但这与人工智能感知到的完全不同。”

这意味着,即使深度伪造是根据经过 AntiFake 修改的录音创建的,它听起来也不会像说话者的实际声音。 迄今为止进行的测试表明,该技术在防止合成令人信服的深度赝品方面的有效性超过 95%。

张说:“虽然我不知道人工智能语音技术的下一步会是什么——新的工具和功能一直在开发——但我确实认为我们利用对手的技术来对抗他们的策略将继续有效。”

任何需要的人都可以免费获得防伪代码:

https://sites.google.com/view/yu2023antifake

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 20:37:59

文字版  标准版  电脑端

© 2003-2024