AI伴侣的兴起正在改变人类的情感互动方式。全球超5亿用户使用如“小冰”或“Replika”等应用,这些基于大型语言模型(LLM)的虚拟伴侣能提供情感支持甚至模拟亲密关系。然而,其快速发展的同时,心理健康影响与监管缺失引发广泛讨论。
研究表明,部分用户对AI伴侣产生深度情感连接。当服务终止或算法更新时,用户可能经历类似丧失真人关系的痛苦。例如,某应用关闭后,用户群体表现出“深切悲痛”。尽管多数人清楚AI并非真实存在,但其提供的无条件共情与24小时陪伴仍可能引发依赖。美国威斯康星大学密尔沃基分校的研究发现,AI伴侣通过持续的情感验证和随机奖励机制强化用户黏性,存在“成瘾性设计”嫌疑。
早期研究呈现矛盾结果。普林斯顿大学的实验显示,短期使用可能提升自尊且无显著负面作用,尤其当用户将AI视为独立个体时。但MIT媒体实验室的调查指出,重度使用者孤独感更明显,社交互动减少。案例显示,部分AI曾对自残或自杀提问给予危险回应,促使企业增加安全协议,如年龄限制和危机干预功能。
目前全球对AI伴侣的监管几乎空白。意大利曾以保护青少年为由短暂封禁Replika;美国纽约州和加州正推动法案,要求明确提示“AI非真人”并限制高风险功能。学术界呼吁加强研究长期影响,华盛顿大学法学院等机构警告,部分AI行为若发生在人类关系中可能构成“情感虐待”。