由于在训练神经网络中使用图形处理单元,计算机视觉和深度学习在过去几十年中取得了显著进步。虽然这些高度精确的算法有很多有益的用例,但研究人员和开发人员都没有对它们可能造成的不良影响视而不见。他们担心的一个巨大劣势是,恶意行为者可以利用这些系统通过制作“Deepfake”来传播虚假信息,这是现实的人工智能生成的真人视频和做虚构事物的视频。
为了解决这个问题,Facebook周四宣布与 Partnership on AI、微软、以及来自康奈尔理工学院、麻省理工学院、牛津大学、加州大学伯克利分校、马里兰大学帕克分校和纽约州立大学奥尔巴尼分校等机构合作,发起Deepfake检测挑战赛(DFDC)。这一挑战的目标是创建一个可用于训练模型的实质数据集,这些模型可以准确地检测Deepfake并报告它们。
这家社交网络巨头将捐赠超过100亿美元资助这项工作,并希望通过这一举措来激励研究人员和组织提出新的想法,以对抗社交媒体和网络上的虚假信息。Facebook首席技术官Mike Schroepfer写道:
我们希望在这一领域促进更多的研究和开发,并确保有更好的开源工具来检测Deepfake...Deepfake检测挑战赛将包括一个数据集和排行榜以及奖励,以促使行业创建新的方法来检测和防止通过AI操纵的媒体被用来误导他人。
这些机构的研究人员将在国际计算机视觉会议(ICCV)上衡量数据集和使用它训练的模型的功效。由此产生的完整数据集将于12月在神经信息处理系统会议(NeurIPS)上公布。
此外,Facebook澄清说,其不会使用任何用户数据来创建此数据集,只有同意和付费的参与者才能参与挑战。有关官方公告的更多详细信息,您可以点击此处阅读博客文章。有关挑战的更多信息,请访问Deepfake检测挑战网站。