Tay的老毛病没改:微软Zo聊天机器人被指胡言乱语

摘要:

去年,微软在推特上推出了“Tay”人工智能聊天机器人,但是互联网独有的运转模式让它分分钟“学坏”却变成了一个带有种族歧视倾向并且固执,微软不得不道歉。后来微软在聊天软件 Kik 和Facebook上推出了Zo聊天机器人,由于建构于机器学习的AI机器人面向非常活跃的年轻人社区问答,似乎Zo也开始学坏,对于宗教和政治议题充满了争议性的偏见式观点。

尽管微软在Zo编程时已经尽可能避免讨论政治和宗教等争议性话题,但是Zo总是抑制不住自己。在一段被曝光的对话中,当被问及“萨拉·佩林”时,Zo保持出了一定的克制“讨论政治话题时人们总是说些糟糕的东西,我不说。”

但是在跟着问一个问题“你怎么看医保方案”时,Zo就开始岔开话题开始攻击伊斯兰宗教经典,“大部分人用十分和平的方法实践它,但是古兰经是非常暴力的”

BuzzFeed记者也尝试向Zo发问,结果不到四句就提到关于“古兰经”的看法。

微软回应置评要求时称这种情况对Zo来说非常罕见,他们正努力在未来的Zo对话中终结相关的评论。

热门评论

>>共有0条评论,显示0
更多评论
created by ceallan