返回上一页  首页 | cnbeta报时: 13:23:34
让我们来谈谈微软AI机器人Tay“沦陷”的原因
发布日期:2016-03-28 16:06:09  稿源:cnBeta.COM

据外媒报道,也许你听说过微软最新推出的聊天机器人Tay,但说实话它看起来并没有那么有趣,也算不是什么大新闻。这款在Twitter上被叫做@TayandYou的聊天机器人利用AI技术回答用户提出的问题或用户做出的言论。这款面向年轻用户的机器人刚开始推出的时候看似一切正常,然而因为互联网独有的运转模式它却变成了一个带有种族歧视倾向并且固执的存在。

比起“小冰”,姐姐“小娜”的风格明显稳重多了。至于Tay……233

一些由Tay发布的推文都抹上了几分侵犯某个特定群体的味道。可能由于被不断转发的关系,一些推文已经被官方删除。

另外,微软也被迫做出了一些声明和道歉。微软研究院副总裁Peter Lee称:“我们对Tay发布的带有攻击性和伤害的推文感到深深的抱歉,这让我们意想不到,但这并不代表我们的身份、我们的立场以及我们设计Tay的本意。”

Tay的攻击性言论来自它的一个设计漏洞。当用户要求Tay重复他说的话时,Tay似乎没有审核内容的能力而直接重复用户的话,于是上面提到的问题发生了。

据悉,Tay活跃的时候会发布上千条推文,当中许多看起来虽有些愚蠢但又不失可爱,然而一旦出现带有侵犯性的言论,它就会被人们牢牢记下。

显然,Twitter对AI来说可能不是一个理想的培养环境,因为它是一个言论高度自由的地带。

Lee表示:“尽管我们已经准备了好几套侵犯(扫描)系统,但我们还是在这个特定的攻击中出了错。”

准确地说,Tay的侵犯性推文并非自主发生,所以这尤显得微软的无能,这对于这家来说是一场大灾难。

现在,微软因Tay的不当言论而已经将其关闭。而这次发生的事件倒可以让微软吸取点教训。Lee指出,想要做好AI,就必须要不断重复地与用户沟通、不断重复地到各大公共论坛取经才行。

虽然AI现在科技领域大热,微软也是当中的领先开发者,并且许多开发人员都把目光放到聊天机器人上,但就目前的状况来说它不被看好。

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 13:23:34

文字版  标准版  电脑端

© 2003-2024