返回上一页  首页 | cnbeta报时: 22:26:17
测试发现ChatGPT在近一半的场景中反映了人类的决策偏见
发布日期:2025-04-10 21:08:25  稿源:cnBeta.COM

突破性研究表明,人工智能不仅仅处理数据,它也会犯与人类相同的判断错误。新研究发现,ChatGPT 在近一半的测试场景中反映了人类的决策偏见,包括过度自信和赌徒谬误。尽管 ChatGPT 擅长逻辑和数学,但它在判断方面却举步维艰,这表明它的思维方式可能比我们意识到的更像我们。

我们真的能相信人工智能能做出比人类更好的决策吗?根据最近的一项研究,答案是:并非总是如此。研究人员发现,OpenAI 的 ChatGPT(最先进、应用最广泛的人工智能模型之一)有时会犯与人类相同的决策错误。在某些情况下,它会表现出常见的认知偏差,例如过度自信和热手谬误(或赌徒谬误)。然而,在其他情况下,它的行为方式与人类的推理方式截然不同,例如,它往往不会陷入基准利率忽视或沉没成本谬误。

images_medium_msom.2023.0279f1.gif

这项研究发表在INFORMS旗下期刊《制造与服务运营管理》上,表明ChatGPT不仅仅是分析数据,它还能反映人类思维的某些方面,包括思维捷径和系统性错误。这些偏见模式在不同的商业环境中似乎相对一致,但随着新版AI的开发,它们可能会发生变化。

这项研究对 ChatGPT 进行了 18 项不同的偏见测试。结果显示:

  • 人工智能陷入人类的决策陷阱——ChatGPT 在近一半的测试中表现出过度自信或模棱两可厌恶以及合取谬误(又名“琳达问题”)等偏见。

  • 人工智能擅长数学,但在判断方面却很吃力——它擅长解决逻辑和基于概率的问题,但在决策需要主观推理时就会出现失败。

  • 偏见不会消失——尽管较新的 GPT-4 模型比其前身分析得更准确,但它有时在基于判断的任务中表现出更强烈的偏见。

从招聘到贷款审批,人工智能已经影响着商业和政府的重大决策。但如果人工智能模仿人类的偏见,它是否会强化错误的决策,而不是纠正它们?

“随着人工智能从人类数据中学习,它可能也会像人类一样思考——包括偏见等等,”西方大学首席作者兼助理教授杨晨说道。“我们的研究表明,当人工智能被用来做出判断时,它有时会采用与人类相同的思维捷径。”

研究发现,ChatGPT 倾向于:

  • 谨慎行事——人工智能会避免风险,即使风险更高的选择可能会产生更好的结果。

  • 高估自己——ChatGPT 假设它比实际情况更准确。

  • 寻求确认——人工智能倾向于支持现有假设的信息,而不是挑战它们。

  • 避免歧义——人工智能更喜欢具有更多确定信息和更少歧义的替代方案。

“当一个决策有明确的正确答案时,人工智能就能准确无误地做出决定——它比大多数人更擅长找到正确的公式,”女王大学的安东·奥夫钦尼科夫说道。“但当涉及到判断时,人工智能可能会像人类一样陷入同样的认知陷阱。”

那么,随着世界各国政府纷纷制定人工智能监管法规,这项研究提出了一个紧迫的问题:当人工智能和人类一样有偏见时,我们是否应该依靠它来做出重要决定?

新南威尔士大学商学院的塞缪尔·基什纳表示:“人工智能并非中立的裁判。如果不加以控制,它可能无法解决决策问题,反而可能使问题变得更糟。”

研究人员表示,这就是为什么企业和政策制定者需要像监控人类决策者一样密切监控人工智能的决策。

麦克马斯特大学的米娜·安迪亚潘表示:“人工智能应该被视为做出重要决策的员工——它需要监督和道德准则。否则,我们面临的风险是,自动化错误的思维,而不是改进它。”

该研究的作者建议定期审核人工智能驱动的决策,并改进人工智能系统以减少偏见。随着人工智能影响力的不断增长,确保它能够改善决策,而不是仅仅复制人类的缺陷,将成为关键。

“从 GPT-3.5 到 4.0 的演变表明,最新模型在某些领域变得更像人类,而在其他领域则不那么像人类,但准确性更高,”皇后大学的 Tracy Jenkin 表示。“管理者必须评估不同模型在其决策用例中的表现,并定期重新评估以避免出现意外。有些用例需要对模型进行重大改进。”

编译自/ScitechDaily

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 22:26:17

文字版  标准版  电脑端

© 2003-2025