返回上一页  首页 | cnbeta报时: 14:11:39
Stability AI最新的SD3模型存在严重问题 为规避裸体结果导致躯体部分错乱
发布日期:2024-06-14 14:19:26  稿源:蓝点网

人工智能 Stability AI 最新的 SD3 Medium 模型存在严重问题,只要生成人物就会出现躯体错乱,这似乎是该公司刻意规避生成裸体图片的结果。目前猜测他们可能在训练过程中就剔除了 NSFW 内容,同时在训练时规避裸体内容进而导致模型也会刻意将人体结果去除。

昨天人工智能初创公司 Stability AI 推出 Stable Diffusion 3 Medium 版,该模型是个精简版可以在普通的笔记本电脑和台式机上使用,并且 Stability AI 还强调在虽然模型规模较小但精度依然很高。

然而在生成某些特定内容时 SD3 Medium 版存在严重的问题,例如当生成的内容是人物时渲染人体部分就会错乱,包括手、脚和躯干部分等。

在这种错乱情况下生成的照片看着令人不适,为了避免亮瞎各位这里就不直接放图片了,如果觉得这都是小意思你可以点击这里查看图片。

is-this-release-supposed-to-be-a-joke-sd3-2b-v0-qwi6z8fke56d1.webpis-this-release-supposed-to-be-a-joke-sd3-2b-v0-vh10wslle56d1.webp

is-this-release-supposed-to-be-a-joke-sd3-2b-v0-34rldkxke56d1.webp

为什么如此先进的模型还会在手指等部分出现低级错误呢?这种错误在文本生成图像模型刚问世的时候常见,现在这种问题按理说早就应该被解决了。

在 Reddit 论坛的讨论中,网友倾向于这是 Stability AI 在模型训练过程中产生的问题,Stability AI 可能在训练的数据中就过滤了 NSFW 图片,同时在模型训练时尽可能避免出现裸体内容,这导致模型在生成图像时可能会刻意将人体结构去除。

测试还发现只要使用模型生成的图片中不包含人,那就可以生成比较完美的图片,只有存在人物时才会出现各种躯体错乱的问题,这似乎也可以说明 Stability AI 刻意处理了某些内容。

对 Stability AI 以及所有 AI 公司来说,模型都需要规避生成可能存在冒犯性的内容,其中裸体内容也在审查范围内,这些问题可能都会阻碍 AI 技术的发展。

尤其是最近一年 Stability AI 出现比较糟糕的财务问题,在 3 月份其创始人兼首席执行官已经离开公司,之前也有 3 名关键工程师离职,现在模型效果比较糟糕可能会对 Stability AI 的财务问题造成更大的影响。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 14:11:39

文字版  标准版  电脑端

© 2003-2024