诉讼指控 Character.AI 导致 14 岁男孩死亡
佛罗里达州一名 14 岁男孩自杀后,Character.AI 遭到起诉,他的母亲说他迷上了该平台上的一个聊天机器人。据《纽约时报》报道,来自奥兰多的九年级学生 Sewell Setzer III 花了数月时间与 Character.AI 的人工智能角色扮演应用程序上的聊天机器人交谈。
塞泽尔尤其对一个叫"丹妮"的机器人产生了感情,他不停地给这个机器人发短信,以至于他开始远离现实世界。
塞泽在死前不久向机器人坦白了自杀的念头,并给它发了信息。
今天上午,Character.AI表示它将推出一系列新的安全功能,包括对违反服务条款的聊天进行"改进的检测、响应和干预",以及在用户聊天时间达到一小时时发出通知。
正如《泰晤士报》所写的那样,现在有一个蓬勃发展的人工智能陪伴应用程序行业--其对心理健康的影响在很大程度上还没有得到研究。