英国物理学家史蒂芬•霍金认为,人工智能的潜在威胁绝不仅仅是像电影《终结者》里描绘的那种梦魇,他认为,人工智能正在走向错误的轨迹。在接受拉里•金采访时,霍金说道:政府看上去正在进行一场人工智能军备竞赛,利用智能技术设计飞机和武器。而那些真正需要人工智能技术帮助的地方,比如在医疗健康领域,反 而并不能优先拿到直接资金支持。
霍金担心人工智能并不让人感到意外——他从几年前就开始提出类似的担忧了。但是对于人工智能军备竞赛,显然这已经不是短期问题,而是需要引起我们的长期关注了。
当然,人工智能竞赛肯定还会在各个领域里继续,比如微软利用人工智能提升应用程序,还有很多公司都在探索自动驾驶汽车。不过,除了霍金之外,SpaceX创始人埃隆•马斯克,苹果联合创始人史蒂夫•沃兹尼亚克,以及其他数千个科技界人士都在密切关注人工智能在军事领域中的应用。
在接受拉里•金的“Larry King Now”节目线上采访时,霍金承认人工智能可以给人类带来很多好处。他说:
想象一下,人工智能算法可以快速评估科学家的想法,更早监测出癌症,甚至预测股票市场。
但霍金同时也表示,人工智能必须要受到严格监管。
但是,对于未来学家雷•库兹韦尔提出只需几十年就能实现人类思维和机器的融合,霍金并不认同,他说:
我觉得雷•库兹韦尔的想法过于简单化、也过于乐观了。指数级增长不可能一直持续下去。过去也有发生过的类似预测,有些我们无法预测的事情会打断人工智能的发展。我不认为人工智能必然会良性发展。一旦到了某个关键阶段,机器能够实现自我进化,我们就不能预测他们的目标是否会和人类的保持一致。
这就是霍金和库兹韦尔彼此之间的一场隔空辩论。回到2014年,库兹韦尔曾表示霍金本人就是人工智能技术的受益者——比如,语音合成软件,帮助他克服了自己衰弱的神经性变异疾病。同时,他还指出在认识人工智能前景时,人类通常会出于危险考虑而设置一个“道德律令”。
拉里•金的采访安排在了本届Starmus大会上,今年这届科学大会被安排在了加那利群岛,目的是为了庆祝霍金的人生和事业所取得的成就。霍金是世界上存活时间最长,也是最著名的肌萎缩侧索硬化症患者,明年一月,他就75岁了。
下面是本次采访其他一些主要内容:
霍金说,人工智能不是人类所遇到的唯一威胁,人口膨胀和空气污染(包括不断增长的温室气体排放)也是最需要引起人们注意的问题。“现在关注如何避免全球变暖的问题是不是已经太晚了呢?”霍金问道。对于这些问题,他看上去并不乐观。拉里•金询问霍金从六年前的上一次采访至今,有什么事情发生了变化,霍金回答说:“我们人类当然也变得不那么贪婪和愚蠢了。”
霍金最著名的,就是他提出的黑洞理论。最近他又发表了一篇论文,阐述了黑洞不会摧毁所有被它吸入的东西。但最让霍金感到惊讶的是,他发现了一些加速宇宙膨胀的神秘因素,这个因素被称为暗能量,但是霍金表示之所以叫这个名字,是因为它只是一个名字,用来命名我们还不明白东西的而已。
霍金认为,宇宙中最神秘的问题就是关于宇宙本身的意义。他说道:“为什么会有宇宙和所有自然法则的存在?他们有存在的必要吗?在某种意义上,他们肯定有存在的必要,否则我们就不会在这里问这样的问题了。不过,是否还会有其他更深层次的原因吗?”
几年前,霍金曾说过他觉得女人完全就是一个“迷”——虽然有些批评家认为霍金这么说带有一点性别歧视的色彩。拉里•金在采访时有提到了这件事,霍金回答说:“从那时候开始,我已经从女人身上学到了很多东西。”此外,霍金还提醒拉里•金,他已经和七个不同的女人结了八次婚。霍金问道:“经验越多,是不是就越容易成功?”拉里•金回答:“你说的没错,对于这问题,我觉得该回答——是的。”
VIA geekwire