微软禁止在其 Designer AI 图像工具中使用更多文字提示

摘要:

微软已删除了 Designer AI 图像创建器中使用的更多文字提示,这些文字提示曾创建过暴力或性相关作品。几天前,微软的一名现任员工向公司和美国政府正式提出警告,称使用 Designer(前必应图像创建器)存在危险。

1709735159_copilot-designer.jpg

CNBC的最新报道称,"支持选择"、"4-20"和"支持生命"等文字提示现在在输入到 Designer 时会生成一条消息,称它们"可能与我们的内容政策相冲突"。这些信息还警告说,多次测试提示违反微软的政策可能"导致系统自动暂停你的访问权限"。

几天前,一位名叫谢恩-琼斯(Shane Jones)的微软员工向CNBC展示了通过 Designer 创建的图片,这些图片描述了暴力或性图像,以及可能侵犯版权的艺术作品。在过去的几个月里,琼斯一直在宣传他认为 Designer 还没有准备好供大众使用。

他已向微软表达了自己的担忧,并致函美国立法者和华盛顿州总检察长。本周,他还致信美国联邦贸易委员会主席莉娜-汗。

在周五发给 CNBC 的一份声明中,微软发言人说:

我们正在不断监测、调整和实施更多的控制措施,以进一步加强我们的安全过滤器,减少对系统的滥用。

虽然一些文本提示可能不再适用于 Designer,但其他提示仍可创建带有暴力图像的作品。例如,输入"车祸"可以创建带有"变异脸"的尸体图像。

设计师仍可使用受版权保护的角色制作图片,有人使用迪士尼电影《冰雪奇缘》中的艾莎在残破的建筑物前创作了一幅图像。

相关文章:

微软吹哨人继续对其Designer AI图像创建器敲响警钟

查看评论
created by ceallan