别怪AI胡说八道 是评测标准出了大问题

摘要:

当你发现聊天机器人ChatGPT在一本正经地胡说八道时,别急着嘲笑它——这正是我们人类自己埋下的祸根。最新研究揭示了令人震惊的真相:人工智能(AI)产生幻觉不是技术故障,而是系统性的训练缺陷。当前主流的AI评测标准存在致命缺陷:猜对得1分,沉默或猜错都得0分。

在这种规则下,不懂装懂的AI永远比诚实说“不知道”的AI得分更高。这就好比考试时,蒙答案的学生永远比交白卷的学生成绩好。在这样的环境下,AI学会了“宁可胡说,不可不说”。


研究人员用数学证明了AI不可能完美:它的胡说八道率至少是判断错误率的两倍。就像你知道49个同学的生日,对猜第50个毫无帮助——有些问题就是无解。

更讽刺的是,修复这个问题可能会毁掉整个行业。目前只有5%的用户愿意为ChatGPT付费,如果它整天说“我不知道”,用户会立刻转向那些更“自信”的竞争对手。在AI公司烧钱竞赛的当下,用户留存是生命线,没有公司敢率先打破这个默契。

研究者呼吁改革评测标准,让AI学会说“我不知道”。但这个看似简单的改变却面临重重阻碍。最终我们面临一个悖论:如果AI永远不承认无知,它就会持续胡说八道;如果它太过诚实,又会失去实用价值。在这个两难选择中,我们需要的不是更聪明的AI,而是更明智的训练方式。

毕竟,真正的智能不仅在于知道多少,更在于清楚自己不知道什么。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看评论
created by ceallan