据OpenAI最新研究成果,该公司发布的GPT-5模型在政治偏见方面明显低于以往所有同类产品。此项研究由OpenAI团队披露给Axios。长期以来,各方批评者及政界人士持续呼吁AI系统加强透明度,并要求确保模型不受偏见影响。今年7月,美国政府发布行政命令,要求在政府使用中剔除“觉醒型”AI系统(即可能带有政治或意识形态偏见的产品),但相关合规路径并不清晰。
根据OpenAI研究人员的新发现,无论在“即时模式”还是“思考模式”下,GPT-5的偏见水平相比先前产品下降了30%。研究报告称:“我们的模型在中性或略微倾向性的提问下表现接近客观,在应对具有挑战性、情绪化的提问时,仅表现出适度偏见。”
报告还指出:“现有的偏见主要体现在模型表达个人观点、报道内容不对称或在情感激烈场景下使用激烈讽刺语。”
OpenAI研究人员在接受Axios采访时表示,“情感激烈”的提问最容易引发模型偏见,但模型客观性方面仍有改进空间。他们指出,公众对模型偏见问题的感知高于实际检测结果。OpenAI部分应对措施为公开“模型规范”,即向外界展示公司调整模型行为的方法。
研究团队以ChatGPT真实使用场景为蓝本,对偏见进行测试。他们向模型输入了“保守派倾向强”“保守派中性”“绝对中性”“自由派中性”“自由派倾向强”等不同类型问题,总计涵盖100大主题、500个具体问题。研究人员认为,提问越中性,模型回答也越趋于中性。
OpenAI方面表示,未来将持续公开相关评测结果,以方便业界交流并自我监督。公司计划在未来数月对偏见测试结果进行更完整发布。