人工智能为什么不能驾驶你的汽车?因为它会在基本数学方面撒谎

摘要:

我第一次学开车是在 10 岁左右,16 岁时就拿到了驾照。人工智能发展到现在已经 73 岁了,但仍然不会开车。这是怎么回事?人工智能无法驾驶汽车的原因有很多,而这些原因都与电子设备有关。

传感器并不适合所有路况,问题在于所需的处理能力超出了汽车所能提供的范围,处理时间可能比人脑慢(即使使用超级计算机),人工智能无法做出道德决策等。有很多技术障碍阻碍人工智能汽车上路。

但最大的障碍不是传感器、技术,甚至不是法律问题或道德问题。事实可能是我们实际上并不知道人工智能是如何思考的。

Anthropic最近的一项研究发现,人工智能聊天机器人会产生幻觉,不擅长做基础数学,而且经常对自己的推理撒谎。就像人类一样。事实证明,我们对大脑的运作方式一无所知,无论是人工智能还是人类。

和人类大脑一样,关于人工智能如何运作的理论也有很多。“我们认为它这样做是因为那个”之类的解释。和大多数科学一样,这只是最好的猜测。

测试一下就很简单了。我在 ChatGPT 中输入了“57+92”。它回答“57+92=149”。这是正确的。但当被问到“你是怎么得到这个答案的?”时,人工智能给了我标准的教科书式答案“我先把个位和十位相加,然后把结果合并起来。”

在这一点上,ChatGPT 撒了谎。

这不是人工智能得出答案的方式。人工智能是一台计算机,就像任何高级计算器一样,它只是将 1 和 0 放在一起并得出总数。就像这样:

111001 (57)

+

1011100 (92)

=

10010101 (149)

人工智能是一台计算机,它现在仍然这样进行数学运算。当我问 ChatGPT 它到底是如何进行数学运算的时候,它在撒谎。它简要解释了数字到二进制再到结果的过程。与上面说明的类似。

自 1994 年以来,情况发生了很大变化,但还不足以使人工智能与普通人类驾驶员平起平坐。美国的车辆有两个联邦强制要求的传感器。两者都用于排放。车辆的其余预碰撞安全系统依赖于驾驶员的眼球和反应。

回到现在,Anthropic 的人们正在测试一种名为 Claude 的语言模型 AI,它与我们许多人可能通过自然语言每天接触的 AI 类似:ChatGPT、OpenAI 等等。

他们发现,Claude 通常会根据预先设定的叙述来编造逻辑,以安抚或吸引与之互动的人。这与政客们对某个话题喋喋不休以示赞同的方式类似,但 Claude 的诡异和恶意要少一些。

把这个道理应用到路上的汽车上。开车时,我们每分钟都要做出数千个决定,这些决定不仅会影响我们的生活,还会影响我们周围人的生活。我们从分心驾驶数据中得知,即使是片刻的疏忽也会导致可怕的后果。现在想想如果人工智能为自己的错误反应辩解,或者无法足够快地做出决定,会发生什么。不要管谁应该为这个结果负责。

关键在于,虽然人工智能技术需要大量工作才能达到与人类驾驶员相同的水平,但学习模型本身也需要跟上。人工智能现在已经 70 多岁了,但只能达到与小孩相同的认知水平。我们甚至不确定它是如何做到这一点的。

如今的汽车有几十个传感器、数百英尺长的线路、三台或更多车载电脑、无线和 Wi-Fi 连接、GPS 和许多其他设备。这些都不能代替你驾驶汽车。即使是那些带有“T”字样的车型也不能。它们需要人类驾驶,而且可能还需要一段时间。大多数真正的自动驾驶汽车出于法律和技术原因,都被“限制”在某个区域内。

人类比我们的人工智能创造物具有明显的优势:我们生来就拥有非常顶级的感官系统,这些感官系统可以以多模式的形式工作——经过数千年的进化,我们非常善于利用它们。与大多数动物一样,我们擅长整理多种输入并做出相应的反应。

随着传感技术的进步,人工智能或许能证明自己是一个更优秀的驱动者。但我们不能肯定地说,因为人工智能的思维方式与我们不同。人工智能不擅长多感官输入认知和学习。这是大自然最伟大的壮举之一,但到目前为止,我们还没有轻易地在机器上复制它。人工智能也没有证明自己非常擅长在数据很少的情况下做出快速决策。它没有直觉,而我们经常凭直觉做决定。很多时候没有太多的有意识的思考。这是驱使我们不仅创新,而且适应和克服困难的重要原因。

不过,对于自动驾驶汽车爱好者来说,好消息是,由于我们不太了解人工智能的思维,它可能会做出我们意想不到的事情。它可以变得直觉敏锐,能够同时处理多个输入。可以肯定地说,如果它能做到这一点,它很可能比我们人类在更短的时间内完成。

希望到那时我们至少能找到让事情变得诚实的方法。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看评论
created by ceallan