“股神”巴菲特于近期播出的专访中再次对人工智能的快速发展发出警告。他将AI技术带来的巨大不确定性,比作贯穿其整个职业生涯的核心地缘政治隐忧——核武器的研发与控制问题。巴菲特在节目中明确指出,当前AI领域的领导者们也无法预知这项技术的最终走向,这种根本上的未知性本身就是最大的风险。
他用哥伦布航海作比:“你可以说‘我不知道自己会到哪里’,因为你随时还能掉头回去。但现在不同了,精灵已经被放出瓶子。”
他进一步援引爱因斯坦对原子弹的评论——它“改变了一切,唯独没有改变人类的思维方式”,以此强调技术飞跃与人类风险认知之间常存在致命脱节。
巴菲特警示,核武器扩散的历史教训同样适用于AI领域。他回顾道,二战时人们以为只有一个国家拥有核武,如今却至少有八个,甚至可能变成九个。
尽管他认为核威胁无法单靠金钱解决,但仍表示,如果有可能消除这一威胁,他愿意毫不犹豫地倾尽所有财富。
作为全球投资界的标杆人物,巴菲特此次深刻的“核隐喻”式警告,预计将引发市场与社会对AI伦理及风险管控更为深入和紧迫的讨论。
