返回上一页  首页 | cnbeta报时: 11:33:00
监督委员会:Meta应完善应对AI深度造假的安全机制
发布日期:2024-07-27 07:59:12  稿源:cnBeta.COM

监督委员会(Oversight Board)是一个全球性的专家机构,负责审查 Meta就 Facebook、Instagram 和 Threads 上的内容做出的最困难和最重要的决定。委员会最近分析了两起类似案件,Facebook 最初对这两起案件的处理方式不同(尽管这两起案件也与 Instagram 和 Threads 有关)。

两个案例都涉及公众女性人物,一个在美国,一个在印度。专家小组发现这两起未经同意的深度伪造事件都违反了《社区标准》,这一点不足为奇;然而,印度的案例最初并未被 Facebook 删除。相反,用户报告在 48 小时后被自动删除。这暗示 Meta 并没有平等对待全球所有市场--这也是该公司受到专家和记者批评的众多原因之一。

1705744327_instagram_hand_logo_jpg_92.jpg

尽管是一个独立的实体,但监督委员会拥有很大的权力,因此被称为"Meta 的最高法院"。它可以在特殊情况下推翻公司的决定,并向 Meta 公司提出政策建议。

在这种情况下,审计委员会建议 Meta:

  • 将禁止"贬损性照片"的规定移至《成人性剥削社区标准》中。

  • 将禁止"贬损性照片"中的"贬损"一词改为"未经同意"。

  • 将禁止"贬损性的照片"中的"Photoshop"一词换成一个更笼统的术语,即经过处理的媒体。

  • 通过在"成人性剥削"政策中增加一个新的未经同意的信号来统一其关于未经同意的内容的政策:即内容是人工智能生成或操纵的。对于具有这种特定背景的内容,该政策还应明确规定,这些内容不必是"非商业性的或在私人环境中制作的",也属于违规内容。

除这些建议外,委员会还对基于图像的性虐待上诉自动终止表示关切,并说:"鉴于所造成的损害,即使等待 48 小时进行审查也可能有害":"鉴于所造成的损害,即使等待 48 小时进行审查也可能是有害的"。董事会认为这是一个可能对人权产生重大影响的问题,需要进行风险评估和缓解。

分析的案例还发现了另一个问题,即所谓的"媒体匹配服务库",它收集以前删除的内容,并在重新发布时帮助自动删除违反规则的图片。

Meta 解释说,它依赖于媒体报道,例如,有一篇文章通报了某位名人的泄露图片。当帖子涉及公众人物时,这可能是有用的,但对个人则没有帮助。因此,Meta 不应过度依赖这一信号。

这些建议不具有约束力,但 Meta 公司必须在 60 天内做出正式答复,这往往会导致 Meta 内部政策的改变。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 11:33:00

文字版  标准版  电脑端

© 2003-2024