据外媒BGR报道,如果你想知道你是否可以使用Reddit来培训人工智能,那么你将获得答案。近日麻省理工学院(MIT)的研究人员用Norman这个“精神病AI”来完成任务,因为在花了一些时间在Reddit上后,现在其只想到谋杀和死亡。
MIT研究人员故意创建Norman来证明用于训练AI的数据可以显著影响其行为。研究人员解释称:“Norman遭受了长时间暴露在Reddit最黑暗的角落,并代表了一个案例研究——当有偏差的数据用于机器学习算法时,人工智能可能会出错。”
“Norman是一个人工智能,被训练执行图像字幕,这是一种流行的深度学习方法,用于生成图像的文字描述。我们从一个臭名昭著的subreddit训练Norman关于图像标题的内容,专门用于记录和观察令人不安的死亡现实。然后,我们将Norman的反应与专门用于罗夏墨迹的标准图像字幕神经网络(在MSCOCO数据集上训练)进行了比较; 一个用于检测潜在的思维障碍的测试。”
结果是令人不安的。
另一方面,这并不令人感到意外。大约两年前,微软的“Tay”AI聊天机器人在上线短短一天后就成为暗黑系种族主义者。