Meta将对上传到Facebook、Instagram和Threads的AI生成照片进行标注
随着全球各国选举的集中到来,Meta 将在未来几个月内开始对上传到 Facebook、Instagram 和 Threads 的人工智能生成的照片进行标注。该公司还将开始惩罚那些不披露现实视频或音频是否由人工智能制作的用户。
Meta 公司全球事务总裁尼克-克莱格(Nick Clegg)在接受采访时说,随着人工智能生成的媒体越来越难以辨别真假,这些措施旨在"激励"科技行业。白宫一直在大力推动企业为人工智能生成的内容加上水印。克莱格说,与此同时,Meta 公司正在开发工具来检测合成媒体,即使其元数据已被篡改,以掩盖人工智能在创作中的作用。
Meta 已经在使用自己的Imagine AI 生成器生成的图片上打上了"Imagined with AI"的水印,该公司还将开始在使用Google、OpenAI、微软、Adobe、Midjourney 和 Shutterstock 的工具生成的人工智能照片上打上同样的水印。克莱格说,在建立识别人工智能生成的视频和音频的标准方面,该行业远远落后于其他行业。虽然 Meta 对此类媒体如何被用于欺骗保持高度警惕,但该公司不可能靠自己抓住一切。
他说:"对于那些担心视频、音频内容被设计用来在大选前的重要政治问题上欺骗公众的人,我们将保持高度警惕。我是否认为有可能发生这样的事情:无论多么迅速地发现或迅速地贴上标签,我们还是会被莫名其妙地指责掉链子?是的,我认为这是可能的,如果不是很有可能的话。"
Meta 公司一直在与人工智能合作伙伴关系等组织合作,在现有内容真实性计划的基础上进一步发展。Adobe 最近发布了内容凭证系统,将内容出处信息纳入图像元数据。Google在发布了针对图片的测试版 SynthID 水印后,又将其扩展到了音频文件。
克莱格说,Meta 将很快开始要求用户披露使用人工智能制作的逼真视频或音频帖子。他说,如果用户不披露,"将受到从警告到删除违规帖子的各种处罚"。
人工智能生成的政客病毒式帖子已经有很多例子,但克莱格低估了这种现象在大选年席卷 Meta 平台的可能性。他说:"我认为,我们不可能很快看到完全由人工合成的、具有重大政治意义的视频或音频。我只是不认为事情会这样发展"。
他说,Meta 还开始在内部测试使用根据社区标准训练的大型语言模型(LLM),并称其为数以万计的人工审核员提供了一种高效的"分流机制"。他说:"这似乎是一种非常有效且相当精确的方法,可以确保上报给我们人工审核员的内容确实是那种需要人工判断的边缘案例。"