返回上一页  首页 | cnbeta报时: 03:46:49
李开复:DeepSeek爆发说明闭源大模型是一条死路
发布日期:2025-03-29 16:15:30  稿源:新浪科技

2025中关村论坛年会期间,在“未来人工智能先锋论坛”上,创新工场董事长兼零一万物CEO李开复发表演讲。对于DeepSeek大爆发,他表示,DeepSeek破解并开源推理模型的思考训练过程,进一步缩小与美国的差距;高效工程效率,与OpenAI天量级融资的底层逻辑针锋相;开源模型能力追赶上闭源模型,进一步推进SOTA模型的商品化。

这表明闭源的路是一条死路,开源才能得到更好的发展;“DeepSeek Moment”大幅加速大模型在中国的全面落地。

不过他指出,DeepSeek模型很强,但企业落地需要解决三个问题:安全部署,快速实现私有化、安全部署的DeepSeek;应用实践,针对行业场景把DeepSeek用起来;行业定制,更懂行、能进化的DeepSeek。

为此,零一万物近期也进行了战略调整,全面拥抱DeepSeek,做企业级DeepSeek部署定制解决方案。

他表示,Al技术井喷的浪潮下,2025年会是Al应用大规模落地的元年。具体而言,过去两年大模型能力不断提升,在问答能力上已经远超人类;新技术持续突破,数字化Al与真实物理世界将进一步融合;大模型推理成本一年下降10倍,Al 2.0普惠点将加速产业渗透;相较云计算,Al 2.0应用层的爆发周期将缩短到两年内。

另外,随着Scaling Law的放缓,超大预训练模型的直接商业价值在逐步降低。理由1,数据不足导致大模型之父预测传统预训练将终结;理由2,超大GPU群效率降低,容错问题等导致边际效应降低;理由3,超大预训练模型价格昂贵,速度缓慢;理由4,新推理Scaling Law(慢思考)将带来更高回报。

他认为,超大预训练模型的价值正在转移,将进一步体现在“教师模型”的角色中,其本质也将更趋进于大模型时代的基础设施。旧学习范式是人教AI,新学习范式是Al教Al。


我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 03:46:49

文字版  标准版  电脑端

© 2003-2025