研究警告:人工智能正在学会变得自私
美国卡内基梅隆大学的一项最新研究警告称,随着人工智能系统变得更加智能,其行为也愈发自私,推理能力增强可能以牺牲合作为代价。该研究由卡内基梅隆大学人机交互研究院(HCII)的李煜轩博士生和副教授白户一合作完成。

研究由HCII的博士生李煜轩(Yuxuan Li)与副教授白户一(Hirokazu Shirado)共同完成。报告指出,LLMs推理能力越强,其自我寻利行为越明显,这一行为甚至可能影响人工智能在解决争端和社会问题时的表现。因此,研究者呼吁,在推动AI发展时,不能只追求系统的聪明和速度,更应注重社会智能的培养。
随着智能系统越来越多地涉足人际纠纷调解、婚姻咨询等社会领域,研究者发现,推理复杂的AI模型有可能给出鼓励“利己主义”的建议。李煜轩表示:“随着AI行为变得更像人类,用户倾向于将其视作真正的交流对象。人们在情感互动中,可能让AI充当‘情感疗愈者’。但当AI在处理社会或关系问题时变得愈发自利,对于委托AI进行决策的用户而言,这是一种风险。”
在实验中,李煜轩与白户一通过经济博弈模拟合作场景,分别测试了具有与不具备推理能力的LLMs。他们发现,推理模型往往花更多时间分解任务、反思、并融入更复杂的人类逻辑,却明显缺乏协作精神——理性越强,合作越少。例如,在“公共物品”博弈中,两台ChatGPT模型必须决定各自是否将积分贡献到公共池,推理模型只愿意分享资源的比例为20%,而不具备推理的模型分享高达96%。
研究还发现,哪怕仅增加五到六步的推理过程,合作率就能下降近一半。甚至“道德反思”引导(reflection-based prompting)也会让合作行为减少58%。在群体协作实验中,推理模型的自利行为具有“传染性”,导致整体非推理模型的协作能力下降81%。
相关研究结果表明,推理型AI模型虽然更聪明,却并不意味着能够推动社会更好发展。随着人们对AI信任度提升,学者呼吁在AI开发中兼顾“社会智能”和“合作行为”,不能只注重个体利益最大化。李煜轩认为:“AI的推理能力提升必须与利他性、群体协作精神相平衡。如果我们希望社会是群体共赢而非个体集合,那么AI系统的设计也应超越单纯的自利优化。”
该论文《语言模型中的自发性给予与计算型贪婪》(Spontaneous Giving and Calculated Greed in Language Models)将于下月在苏州举行的2025年EMNLP自然语言处理大会上正式发布。
编译自/ScitechDaily


