返回上一页  首页 | cnbeta报时: 11:21:55
GPT-5倒计时 奥特曼踢走Ilya得逞 宫斗惊人内幕再曝光
发布日期:2024-05-29 14:36:36  稿源:新智元

解散Ilya的超级对齐团队之后,奥特曼再造了一个新的“安全委员会”。OpenAI称正训练离AGI更近一步的下一代前沿模型,不过在这90天评估期间,怕是看不到新模型发布了。“OpenAI下一代前沿模型,正在训练中”。经历了几周前Ilya、安全团队负责人Jan Leike离职后,超级对齐团队也被OpenAI解散。

今天,奥特曼领衔的OpenAI全新的“安全与保障委员会”官宣成立。


不仅如此,OpenAI预计,正在训练的下一代旗舰模型,将带领他们通往AGI的道路上迈向新的水平。


OpenAI研究科学家,德扑之父发帖确认了新模型训练的消息。


安全委员会的成立,下一代模型的布局,一切说明了OpenAI已非常接近AGI。


虽然这是板上钉钉的官方实锤,但只是含糊不清地用了一句“前沿模型”,并没有确认会不会是GPT-5或者其他型号。

模型官宣引起的讨论完全抢走了新成立安全委员会的风头(不知道是不是奥特曼故意安排的)。

下一代模型全网大猜想

GPT-4之后,全网对于OpenAI发布的下一代旗舰模型臆测了很久。

不过,这一次,他们提到的前沿模型,究竟是什么?

几天前,巴黎VivaTech科技活动上,OpenAI开发者体验负责人暗示了,今年一定会发新模型“GPT Next”,而且网友猜测预计在11月发布。


大多数网友纷纷认定,这次可能就是GPT-5了。

不过,又有人指出,在今年4月的时候,GPT-5早已开始了红队测试。


这完全说明了GPT-5的训练早已完成,OpenAI正在研究的下一代前沿模型绝不可能是GPT-5。

因此,他们训的是GPT-6无疑了。



另一位爆料人Flowers更加确认了这一点,OpenAI当然没有刚开始训练GPT-5。

同时,他还坚持表示,也不会有GPT-6。


当有人问道,为什么这么确信OpenAI没有GPT-6时,Flowers首次透露出一个新奇的点子:

“因为大模型的发展已经接近它们的极限”。

尽管可以通过使用工具、增加功能、提升多模态能力,扩展上下文等方式来改进LLM,但这终将不是长久之计。


但Reddit上有人发帖否认了GPT-5的猜想,甚至新模型应该不属于GPT家族,而是Q*,理由如下:

- GPT-5从12月/1月就开始训练,大致是目前GPT-4o的底层架构,不可能再发布一次

- 如果扩展到GPT-6,则需要储备更多的算力

- 要真正实现LLM的逻辑推理和长期任务规划能力,就需要训练一个新模型来操作LLM,而OpenAI一直在研究Q*来解决这个问题


楼主还提出了Q*方法的大致原理:

- 先提出一个复杂的Agent任务

- 让GPT生成数百万个潜在解决方案,以树状结构表达,树中每一个节点代表Agent推理的一个步骤

- 让GPT对每个解决方案评分

在已经有一个强大GPT模型的基础上,重复这个过程就能创建出一个庞大的数据集,用来训练新模型指导LLM完成长期的推理或规划任务。

这种猜想甚至比GPT-5更激动人心,评论区就有人回复说“像Q*这样的东西即使不大,也能改变整个游戏”。


也有评论力挺这种说法,因为OpenAI经常谈到Agent。现在可能无法使用内置的逻辑推理Agent来训练LLM,但用外置的新模型对LLM进行“指导”是可行的。



算力体量有多大?

下一代前沿模型虽未知,不过微软Build大会上,CTO Kevin Scott表示,微软正在为OpenAI打造“鲸鱼”级别的超算。

当时训练GPT-3使用的是“鲨鱼”级的算力,GPT-4则用上了“虎鲸”级的算力。


90天倒计时开始,全力打造AGI

除了奥特曼本人,“安全与保障委员会”的董事会成员还有主席Bret Taylor、Adam D'Angelo、Nicole Seligman,共四个人。

“安全与保障委员会”的首要任务将是,在接下来的90天内,评估改进OpenAI现有的AI安全和保障的流程措施。

90天期满后,他们将与全体董事会提交一份报告。

经过董事会的审查之后,OpenAI将公开分享所采纳的改进措施。

因此,有理由得出结论,无论下一代“前沿模型”是什么,至少它在90天内不会发布。

委员会中,除了董事会成员,还包括:

OpenAI的技术和政策专家Aleksander Madry(Preparedness团队的负责人)、Lilian Weng(安全系统负责人)、John Schulman(对齐科学负责人)、Matt Knight(安全负责人)和Jakub Pachocki(首席科学家)。


此外,OpenAI还聘请了外部网络安全和技术专家,比如Rob Joyce、John Carlin,来提供咨询意见。

不搞“超级智能”

奥特曼此前,曾对外公开宣称,OpenAI终极目标是打造一种比人类先进的“超级智能”。

他甚至表示,2023年自己有一半的时间都在研究“如何打造超智能”。如今这一说法,却被另一位高管否认。

图片

OpenAI负责全球事务的副总Anna Makanju在接受FT采访中提到:

我们的使命是打造AGI,并非是“超级智能”。因为超级智能是一种比地球上人类高出多个数量级的技术。

不过,她还补充道,“AGI还不存在,我们在确保其安全前,不会发布这样的技术”。

图片

委员会并非独立

一些人批评到,新的委员会完全由OpenAI的“自己的高管”组成,这意味着对该公司安全措施的评估,将不会是独立的。

图片

还有网友调侃道,这不都是由奥特曼本人组成的安全委员会。

图片

之所以出现这样的声音,是因为OpenAI董事会去年发动的政变,成为一直以来争议的来源。

2023年11月,奥特曼被董事会解雇,理由是“他并不坦诚”。

而最近,由两名前董事会成员在TIME期刊上撰写的文章中,更是对奥特曼对OpenAI的治理提出了严厉的批评。

她们表示,Ilya和其他安全对齐团队人员的离开,预示着OpenAI“自治实验”的前景不妙。

图片

团队重组

在Ilya Sutskever和负责人Jan Leike离职后,许多人愈加担忧,OpenAI如何管理类AGI技术的潜在危险。

彭博称,Ilya走后,OpenAI将他原先团队中剩余的成员,整合到了更大的研究部门,而不是保留独立的形式。

与此同时,OpenAI联创John Schulman也在负责监管超级对齐研究。

作为职务的扩展,他被授予了一个新头衔——对齐科学负责人(Head of Alignment Science)。

图片

OpenAI宫斗内幕曝光

与此同时,针对奥特曼的舆论还在持续发酵。

前董事会成员Helen Toner在最近的播客频道TED AI Show上揭露了一些2023年底OpenAI“宫斗风波”的情况。

图片

她解释了董事会决定罢免奥特曼的原因——隐瞒信息,歪曲事实,公然向董事会撒谎。

比如2022年底ChatGPT发布时,董事会完全没有得到消息,而是在Twitter上才第一次看到。

此外,他一直宣称自己在公司中没有任何经济利益,从没有告知董事会他拥有OpenAI启动基金。

奥特曼在AI安全方面的表现也让Toner不安,因为他只会向董事会透露“关于公司正在实施安全流程的少量、不准确的信息”。

这意味着,董事会没有办法获知这些流程的真实情况,更无从实行有效的监督和指导。

而且,当她的论文中包含了对奥特曼的负面评价时,他开始不择手段,试图将Toner赶出董事会。

结合此前Twitter网友历数的“七宗罪”,奥特曼带领下的安全团队,真的能让下一代模型安全可靠吗?

查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 11:21:55

文字版  标准版  电脑端

© 2003-2024