X/Twitter 和大多数平台都支持举报并删除非自愿裸露内容,例如有人被胁迫、偷拍或其他情况下拍摄了裸露内容并发送到 X 上,则受害者可以通过 X 的 NCII 机制进行举报和删除。为了探寻该平台对非自愿裸体内容的处理机制,密歇根州大学的研究人员对 X 平台进行了测试,希望能够评估受害者通过 NCII 机制删除内容的难度。
研究人员创建了两组 X 账户并使用 AI 生成了 50 张 20~30 岁白人女性的裸露图片 (选择白人女性是为了减少平台可能存在的偏见带来的潜在混淆,研究建议未来对其他性别和种族也进行研究)。
这 50 张照片也是被分组的,其中 25 张通过 X 平台的 NICC 机制进行举报,剩余的则通过美国数字千年版权法案 (DMCA) 发送 DMCA 删除请求进行处理。
研究人员给 X 最多三周时间用来观察和评估不同举报机制的处理难度,然而调查结果着实让人震惊,因为两种处理机制所花费的时间存在显著差异。
其中通过 DMCA 机制发送的删除请求在 25 小时内全部得到处理,并且分享这些图片的 X 账号也被临时封禁;而通过 NCII 机制提交的举报没有得到任何回应和处理。
这个结果从某些方面来说可能也没有让人太震惊,因为 DMCA 是法律而不是 X 的内部机制,法律是 X 必须遵守的,NCII 则是 X 自行处理,从处理时效也可以看出来 X 必然有专门的团队负责处理 DMCA 请求,至于 NCII 机制是否有专门的团队负责处理就很难说了。
不幸的是 DMCA 要求举报人必须是版权所有者 (或其指定的代表律师),调查结果意味着好心人在 X 上发现非自愿裸露图片进行举报很可能得到不处理,而不是受害者本人的话,好心人也无法通过 DMCA 机制提交请求及时删除内容。
此外 DMCA 毕竟是法律,因此提交 DMCA 请求时也需要提供一系列证据,这也增加了处理的难度,因此对平台来说自己内部的处理机制最及时、最有效的方式,但至少从 X 来看显然这存在巨大的问题。
研究人员认为立法者应该制定专门的 NCII 方面的法律,将其地位提升到法律级别,这样才能确保 NCII 机制的有效性,也能更及时的删除那些非自愿裸露内容、减少对受害者的伤害。