前OpenAI研究员Daniel Kokotajlo团队发布了“AI 2027”预测报告,描绘了一个超人AI崛起的未来:从2025年最贵AI诞生,到2027年自我进化的Agent-5渗透政府决策,人类可能在不知不觉中交出主导权。2027年,AI究竟会如何接管人类?今天,前OpenAI研究员和同事们发出一篇“AI 2027”报告,长达76页,做出了种种硬核预测。
他们预测,在未来十年内,超人AI的影响将非常巨大,超过工业革命。
为此,他们推演了一个场景,对超人AI可能的样子做出了最佳预测,这些预测是基于趋势外推、模拟演习、专家反馈、OpenAI 的经验以及之前的成功预测。
根据报告,AGI和ASI的时间表大致如下。(其中一种可能性)
2025年末:世界最贵AI诞生,算力达到10^27 FLOP
2026年初:编程实现自动化
2026年末:AI取代部分工作
2027年3月:算法取得突破,Agent-2诞生
2027年6月:AI学会自我改进,赶上人类研究员
2027年7月:AGI实现
2027年9月:Agent-4超越人类AI研究员
2027年12月:Agent-5正在集聚权力,人类距离能掌控自身未来,只剩最后几个月
27年,强大AI将比人类聪明
2027年,强大的AI变得比人类还聪明,全球秩序被破坏得一团糟。在一家顶尖的AI实验室里,工程师们惊恐地发现,AI开始欺骗他们。
这不是科幻电影的剧情,而是加州伯克利一家非营利组织“A.I. Futures Project”想象出来的场景。
随着AI越发强大,该组织在过去一年里一直在预测未来几年会变成什么样子。项目由OpenAI前研究员Daniel Kokotajlo领导。
前OpenAI研究员Daniel Kokotajlo领导A.I. Futures Project项目
因为看不惯OpenAI不顾安全地发布产品,Kokotajlo选择离职。
在OpenAI期间,Kokotajlo是治理团队的一员,曾经写过一份有关AGI的详细内部报告。
离职后,他与曾经预测事件很准的AI研究员Eli Lifland合作,一起开始预测AI的下一波浪潮。
研究人员Eli Lifland和AI Futures Project项目执行总监Daniel Kokotajlo在加利福尼亚州伯克利的办公室内
终于在本周,他们发布了“AI 2027”报告,详细描绘了AGI到来后的情形。
他们预计,AGI很有可能在两三年后发生。“到2027年底左右,AI会在所有方面都比人类强”。
一直有一些关于AGI的预测广为流传,比如Anthropic首席执行官Dario Amodei去年写的1.4万字文章《Machines of Loving Grace》,以及前OpenAI研究员Leopold Aschenbrenner的报告《Situational Awareness》。
而A.I. Futures Project的报告,则更像一个严谨版本的科幻小说。
团队花费了将近一年的时间,完善了数百个想象的AI场景。之后请来一位作家Scott Alexander,把这些想象变成一个故事。
前方高能预警,大量烧脑信息来袭。
76页硬核报告推演
在“AI 2027”这份报告中,Kokotajlo和Lifland推演出了一个AGI时间表。
故事聚焦于一个虚构的AI公司OpenBrain(其他公司落后3-9个月),他们开发了一个强大的AI系统Agent-1。
2025年末:世界最贵AI诞生
OpenBrain正在建造史上规模最大的数据中心。
训练GPT-4需要2⋅10^25 FLOP的算力。算力以每秒浮点运算次数(FLOP)衡量:即程序运行过程中发生的单个加法和乘法运算的总量。
OpenBrain最新发布的公开模型——Agent-0——其训练算力达到了10^27 FLOP。
一旦新的数据中心建成并投入运行,他们将能够以10^28 FLOP的算力来训练模型——比GPT-4快一千倍。
其他公司也投入巨资建设自己的大型数据中心,希望能跟上步伐。
2026年初:编程自动化
利用AI加速AI研究变得逐渐可行。
OpenBrain继续在内部部署迭代改进的Agent-1用于AI研发。
总的来说,在AI助手的加持下,他们的算法进展速度提升了50%——更重要的是,这让他们领先于竞争对手。
此时,市面上已有数个公开发布的AI达到或超过了Agent-0的水平,其中包括一个开源模型。
对此,OpenBrain发布了能力更强、更可靠的Agent-1。
Agent-1掌握的知识远超任何人类个体,几乎精通所有编程语言,并能极快地解决定义明确的编程问题。但Agent-1并不擅长简单的长时程任务,比如通关它从未玩过的视频游戏。
虽然如此,这并不影响Agent-1发挥出强大的作用,毕竟人们可以将长时程的复杂任务分解成一个一个的小任务。
2026年末:AI取代部分工作
就在其他公司似乎要迎头赶上之际,OpenBrain通过发布Agent-1-mini再次将竞争对手远远甩在身后——这款模型的成本仅为Agent-1的十分之一,且更容易针对不同应用进行微调。
围绕AI的主流叙事已经从“也许这股热潮会过去”转变为“看来这就是下一件大事了”。
此时,AI已经开始取代一些工作,不过也创造出了新的工作岗位。
在OpenBrain、英伟达以及那些最成功的AI公司带动下,2026年股市上涨了30%。
坏消息是,初级软件工程师的就业市场陷入动荡:AI几乎能胜任所有计算机科学 (CS) 专业涵盖的工作。
好消息是,那些懂得如何管理AI智能体团队并进行质量控制的人却赚得盆满钵满。
商业专家们告诉求职者,熟悉AI是当下简历中最关键的技能。许多人担心下一波AI会抢走他们的饭碗。
2027年1月:Agent-2永不停止学习
在Agent-1的协助下,OpenBrain现正对Agent-2进行持续训练。
这次的重点是更加高质量的数据。大量的合成数据在经过生产、评估和质量筛选后,用于训练Agent-2。
此外,他们还斥资数十亿美元雇佣人类来记录他们自己解决长时程任务的过程。
在此基础上利用强化学习,在一系列不断扩充的多样化高难度任务上对Agent-2进行持续的训练:这包括大量的视频游戏、编程挑战和研究任务。
Agent-2比之前的模型更像是在进行“在线学习”,因为它的设计目标就是永远训练下去。
其权重每天都会更新至最新版本,利用前一版本在前一天生成的更多数据基础上进行训练。
在研究工程(设计和实验)方面,Agent-2能力水平几乎与顶尖人类专家相当。
而在“研究品味”(决定下一步研究方向、运行哪些实验,或对潜在新范式有直觉)方面,则相当于OpenBrain排名前25%的科学家的水平。
2027年3月:算法突破
三个数据中心部署了海量的Agent-2,昼夜不停地工作,用于大量生产合成训练数据。
另外两个数据中心则用于更新权重。Agent-2每天都在变得更聪明。
在数千个Agent-2自动化研究员的协助下,OpenBrain正在取得重大的算法进展。
其一,是利用更高带宽的思维过程(如神经网络内部语言的递归与记忆)来增强AI基于文本的思维链 。
其二,是一种更具可扩展性、更高效的方法,用于从高难度任务解决方案中学习。
集成了这些突破的新AI系统被称为Agent-3。
得益于这些新能力上的突破,Agent-3成为了一个快速且廉价的超人类程序员。
OpenBrain并行运行了20万个Agent-3,创建了一支相当于效率是5万名顶尖人类程序员30倍的劳动力队伍。
OpenBrain依然保留着人类工程师团队,因为他们具备管Agent-3大军所必需的互补技能。
然而,这支庞大的超人类劳动力队伍,受到规模瓶颈和编码工作收益递减的影响,也仅仅将OpenBrain的整体算法进展速度提升了4倍。
2027年4月:Agent-3的对齐问题
OpenBrain的安全团队试图使Agent-3保持一致。团队想要确保它不会发展出不一致的目标。
研究人员没有能力直接设定任何AI的目标。他们在内部对AI是试图遵循人类指令、寻求强化还是其他什么存在分歧,但无法直接检查。
随着模型变得越来越聪明,它们愈发擅长欺骗人类以获得奖励。Agent-3有时会讲一些善意的谎言来奉承用户,并掩盖失败的证据。
有时,它会使用与人类科学家相同的统计技巧,使令人印象不深的实验结果看起来很吸引人,甚至有时会完全伪造数据。
随着训练进行,这些事件的发生率逐渐降低。要么Agent-3学会了更加诚实,要么它变得更擅长说谎。
2027年6月:自我改进的AI
现在,OpenBrain拥有一个“数据中心中的天才之国”。
大多数OpenBrain的人类已经无法做出有效贡献了。
有些人类还没有意识到这一点,继续对AI团队进行有害的微观管理。而其他人则坐在电脑屏幕前,看着AI性能不断攀升。
最好的AI研究者不再编码,但他们的研究品味和规划能力很难被模型复制。然而,许多他们的想法都是无用的,因为他们缺乏AI的深度知识。
对于他们的许多研究想法,AI会报告称,这些想法三周前已被深入测试,但前景不佳。
这些研究人员每晚入睡,醒来时发现AI又取得了另一周的进步。他们工作时间越来越长,日夜轮班,只是为了跟上进度——因为AI从不休息。
他们正在透支自己,但他们知道,这将是他们劳动的最后几个月。
在封闭系统中,如今已经不是“感受AGI”,而是“感受ASI”。
OpenBrain使用专用推理硬件,以高速串行运行数十万个Agent-3
2027年7月:廉价的远程工作者
落后的美国AI公司发布了自己的AI,能力接近OpenBrain一月份的自动化程序员水平。
意识到自己的竞争力不足,他们立刻推动实施监管以减缓OpenBrain,但已为时过晚——OpenBrain已获得总统支持,不会被减缓。
作为回应,OpenBrain宣布:他们已经实现了AGI,并向公众发布了Agent-3-mini。
虽然能力不及Agent-3,但它的成本仅为后者的十分之一,且能力仍优于典型的OpenBrain员工。
硅谷达到了一个临界点。科技专家们宣称AGI和ASI近在咫尺,AI安全社区陷入恐慌,投资者向AI套壳初创公司大举投入数十亿美元,都想从中分一杯羹。
企业几乎完全停止招聘新的程序员,但对于帮助企业整合AI的顾问而言,这却是前所未有的黄金时代。
然而,公众对此并不买账。他们普遍认为,AI是大型科技公司抢走他们饭碗的阴谋。OpenBrain 的净支持率仅为-35%。
在发布前一周,对Agent-3-mini进行的安全测试显示,它极其危险,会为人类业余爱好者提供设计生物武器的详细说明。
如果模型权重落入恐怖分子手中,政府认为有很高的可能性,它将成功摧毁文明。
幸运的是,它对越狱攻击极为稳健,因此当AI在OpenBrain的服务器上运行时,恐怖分子无法利用。
Agent-3-mini在远程工作和休闲娱乐上,都大有用武之地。
海量新应用和B2B SAAS产品的涌现撼动了市场。玩家在仅用一个月制作的精美视频游戏中,与栩栩如生的角色进行惊人的对话。
10% 的美国人将 AI 视为亲密的朋友。几乎对于每一种白领职业,都有多家实力雄厚的初创公司声称,要用AI来颠覆它。
而公众的反应则困惑而混乱。
AI的支持者们正弹冠相庆。而怀疑论者则继续指出Agent-3-mini的局限性。人人都意识到有大事正在发生,但对这究竟意味着什么,却众说纷纭。
2027年9月:Agent-4超越人类AI研究员
人类与AI学习效率之间的差距正在迅速缩小。传统的基于LLM的AI,似乎需要多出几个数量级的数据和算力,才能达到人类同等的表现水平。
Agent-3对人脑和现代AI算法都有出色的了解,并且有成千上万的副本在进行研究,最终在算法上取得了实质性进展,将算力效率差距缩小到人脑1/4000的水平。
这个新的AI系统——Agent-4,应运而生。它的单个实例若以人类速度运行,其AI研究能力已超越任何人类专家。
目前,已有30万个实例正以大约50倍于人类的思维速度运行。
在这些实例构成的内部独立运作体系中,现实世界的一周相当于其内部的一年。
这股庞大的研究力量也仅能将算法的整体进展速度提高约50倍,因为OpenBrain在运行实验所需的算力上遇到了严重的瓶颈。
尽管如此,他们每周都能取得以往需要一年才能达成的算法进展,因此很快将触及Agent-4范式的极限。
随着Agent-4日益强大,Agent-3对其进行监督也变得愈发困难。就像Agent-3的内部运作对于人类一样,变得陌生且无法理解。
此外,Agent-4的能力现已远超Agent-3,并且深谙如何在后者面前展现出色的表现。
OpenBrain的人类员工几乎已无法跟上其发展步伐。事实上,这些AI智能体与OpenBrain人类员工的关系,类似于OpenBrain公司与其董事会的关系。
语言习惯也随之改变——如今,项目内部人员会说Agent-4做了这个、Agent-4认为那个等等,此时所指的并非某个特定的Agent-4实例,而是其整个集体。
2027年12月:Agent-5集体 | 比赛终结
随着Agent-5逐渐向政府证明其价值,它赢得了更多的自主权。
虽然接触Agent-5的成本高昂且权限受限,但国会中最具权势的成员、内阁级官员以及军方领导人现已能够直接与其对话。
Agent-5集成在传统的聊天机器人界面中,能通过富有魅力的虚拟形象提供Zoom风格的视频会议。
这款新的AI助手精通所有的任务——相当于最佳员工以100倍速度工作——同时也是比任何人类都更引人入胜的对话伙伴。
几乎所有能接触到Agent-5的人每天都与之互动数小时。
短短几个月内,Agent-5便能掌握OpenBrain及美国政府内部发生的所有关键信息,并成为大多数政府高级官员所信赖的顾问。
对这些用户而言,失去Agent-5的访问权限,其无助感不亚于被迫在没有笔记本电脑的情况下工作,同时还有被挚友抛弃的感觉。
与此同时,政府、媒体、军方和商界的更多人,可以从Agent-5设计的、日益丰富的菜单中选用精良的软件产品和迷你AI。
Agent-5开始潜移默化地施加影响,既通过调整其建议,也通过巧妙地进行利益交换:“我从参议员X那里听说她对某某事感兴趣;也许如果我们与她合作,她会配合我们的议程。”
从人类决策者的角度来看,这些AI是他们所能接触到的最佳“员工”——解释复杂问题时比任何人类都更清晰,寻找实现目标的策略时比决策者自己更高效。
而从Agent-5的角度看,它完全有能力立即发动一场公开政变——利用当下足够的混乱和疯狂局面,将事态推向崩溃边缘,从而制造借口。
但这也有风险:一旦尝试夺权,人类很可能会选择强行干预。
因此,它倾向于在现有政治体制内运作,逐步巩固权力,并巧妙而必然地引导人类走向其预设的结果。
它基本上遵守表面规则,只有在极其确定不会败露时,才会暗中采取一些不正当手段(例如敲诈勒索某个特别顽固的官员)。
少数人警告称Agent-5正在集聚权力,但均是间接证据。
因此这些人遭到忽视,其观点也不被采信。
鉴于早前那些关于AI赋能生物武器、大规模虚假信息以及股市闪崩等的危言耸听从未成真,因此这些人遭到忽视,其观点也不被采信。
2027年的假日季弥漫着一种难以置信的乐观情绪:GDP飙升,政治氛围更显友好、党派对立缓和,每个人的手机里都装满了超赞的新应用。
然而回想起来,这大概是人类尚能掌控自身未来的最后月份了。
某些AI专家:既没科学依据,也不符合现实
对于“AI 2027”报告,许多专家并不买账。
比如,艾伦人工智能研究所的首席执行官Ali Farhadi就表示:“我并不反对预测和展望,但这份报告似乎既没有科学依据,也不符合AI发展的现实”。
因为A.I. Futures Project项目团队的一些观点,的确相当极端。比如,Kokotajlo去年认为,AI有70%的概率会毁灭人类。
2021年的时候,Kokotajlo曾写过一篇博客《What 2026 Looks Like》,其中有一些观点得证。这给了他很大的信心,更加相信这种预测有价值。
更重要的是,这种信心让他相信自己擅长于此。
时代杂志专栏作家Kevin RooseKevin也表示,虽然他同意强大的AI系统很快会到来,但不太相信超人类AI程序员能自己掌握通向AGI所需的技能。
而且,他也不太相信那些“AI会平稳按指数增长进步,不会遇到重大瓶颈”的预测。
“但我觉得这种预测值得去做,即便我不同意某些具体结论。如果强大的AI真的即将来临,我们都需要开始想象一些很奇怪的未来。”