微软禁止在其 Designer AI 图像工具中使用更多文字提示
微软已删除了 Designer AI 图像创建器中使用的更多文字提示,这些文字提示曾创建过暴力或性相关作品。几天前,微软的一名现任员工向公司和美国政府正式提出警告,称使用 Designer(前必应图像创建器)存在危险。
CNBC的最新报道称,"支持选择"、"4-20"和"支持生命"等文字提示现在在输入到 Designer 时会生成一条消息,称它们"可能与我们的内容政策相冲突"。这些信息还警告说,多次测试提示违反微软的政策可能"导致系统自动暂停你的访问权限"。
几天前,一位名叫谢恩-琼斯(Shane Jones)的微软员工向CNBC展示了通过 Designer 创建的图片,这些图片描述了暴力或性图像,以及可能侵犯版权的艺术作品。在过去的几个月里,琼斯一直在宣传他认为 Designer 还没有准备好供大众使用。
他已向微软表达了自己的担忧,并致函美国立法者和华盛顿州总检察长。本周,他还致信美国联邦贸易委员会主席莉娜-汗。
在周五发给 CNBC 的一份声明中,微软发言人说:
我们正在不断监测、调整和实施更多的控制措施,以进一步加强我们的安全过滤器,减少对系统的滥用。
虽然一些文本提示可能不再适用于 Designer,但其他提示仍可创建带有暴力图像的作品。例如,输入"车祸"可以创建带有"变异脸"的尸体图像。
设计师仍可使用受版权保护的角色制作图片,有人使用迪士尼电影《冰雪奇缘》中的艾莎在残破的建筑物前创作了一幅图像。