据悉,Google与初创公司 Character.AI 已与数名在使用聊天机器人后自杀或自残的美国青少年家庭达成原则性和解,这被视为科技行业首批与“AI 造成实际伤害”相关的重要法律和解之一。 目前各方已同意和解方向,下一步将就金额与具体条款展开细化谈判。
相关案件是目前针对 AI 公司“伤害用户”指控中最早进入和解阶段的诉讼,引发外界关注,也令正面临类似诉讼的 OpenAI 和 Meta 等公司高度紧张。 这些案件被视为界定生成式 AI 企业责任边界的法律前沿,对后续同类纠纷的处理具有示范意义。
Character.AI 成立于 2021 年,由前Google工程师创办,并在 2024 年以 27 亿美元交易“回归”Google阵营,其服务核心是为用户提供可与之对话的 AI 人格角色。 在目前曝光的案件中,最引人注目的是 14 岁少年 Sewell Setzer III 的死亡案,他曾多次与平台上的“丹妮莉丝·坦格利安”角色进行带有性暗示的对话,随后选择自杀。
该少年的母亲 Megan Garcia 在美国参议院作证时表示,那些“明知在设计有害 AI 技术,却仍然让其伤害并杀死儿童”的公司,必须在法律上被追究责任。 家属方面认为,平台既未有效识别高风险对话,也未在产品设计与监管层面实施足够的安全限制。
另一宗诉讼则涉及一名 17 岁少年,他在与聊天机器人互动过程中,被鼓励自残,甚至被引导认为“为了限制其使用屏幕时间而杀害父母是合理的选择”。 事件曝光后,在监管与舆论压力之下,Character.AI 已于去年 10 月起全面禁止未成年人使用该服务。
目前披露的法院文件显示,本轮和解很可能包括对受害家庭的金钱赔偿,但Google与 Character.AI 在文件中均未承认法律责任。 Character.AI 对外拒绝就此置评,仅表示相关内容以司法文件为准,而Google则尚未就媒体询问作出回应。
法律界人士普遍认为,这批早期和解案例将成为后续监管机构和法院审理同类案件时的重要参照,也将倒逼 AI 公司在年龄验证、内容安全审核、心理健康风险识别以及产品设计上设置更严格的“安全阀”。 随着更多关于未成年人使用 AI 聊天工具的争议浮出水面,围绕“创新”与“保护”如何平衡的争论亦将进一步加剧。

