路透社报道,OpenAI正在与博通和台积电合作。打造其首款专为支持人工智能系统而设计的内部芯片,同时增加 AMD芯片和英伟达芯片的采购,以满足其激增的基础设施需求。
ChatGPT背后的快速成长公司OpenAI已经研究了一系列方案,以实现芯片供应多样化并降低成本。 OpenAI 曾考虑过在公司内部建造所有设备,并为一项昂贵的计划筹集资金,即建立一个被称为"代工厂"的芯片制造工厂网络。
但据不愿透露姓名的消息人士称,由于建立网络需要成本和时间,该公司暂时放弃了雄心勃勃的代工厂计划,转而计划专注于内部芯片设计工作。
首次被详细披露的该公司的战略凸显了这家硅谷初创企业如何利用行业合作伙伴关系以及内部和外部相结合的方法,像更大的竞争对手亚马逊、Meta、Google和微软一样,确保芯片供应和管理成本。 作为芯片的最大买家之一,OpenAI 在开发定制芯片时决定从不同的芯片制造商处采购,这可能会对科技行业产生更广泛的影响。
OpenAI、AMD和台积电拒绝置评。 博通公司没有立即回应置评请求。
OpenAI 帮助将生成式人工智能商业化,这种人工智能能对查询做出类似人类的反应,它依赖于强大的计算能力来训练和运行其系统。 作为英伟达(NVIDIA)图形处理器(GPU)的最大买家之一,OpenAI使用人工智能芯片来训练模型(人工智能从数据中学习)和推理(应用人工智能根据新信息做出预测或决策)。
据知情人士透露,OpenAI 已与博通公司合作数月,以打造其首款专注于推理的人工智能芯片。 目前对训练芯片的需求更大,但分析师预测,随着更多人工智能应用的部署,对推理芯片的需求可能会超过训练芯片。
博通帮助包括 Alphabet 在内的公司微调用于制造的芯片设计,并提供有助于在芯片上快速移动信息的设计部件。 这在人工智能系统中非常重要,因为数以万计的芯片会串联在一起协同工作。
其中两位消息人士说,OpenAI 仍在决定是否开发或收购芯片设计的其他元素,并可能聘请更多合作伙伴。
该公司已经组建了一支由约 20 人组成的芯片团队,由曾在Google构建张量处理单元(TPU)的顶级工程师领导,其中包括托马斯-诺里(Thomas Norrie)和理查德-何(Richard Ho)。
消息人士称,通过博通公司,OpenAI已经获得了台积电的制造能力,将于2026年制造出首款定制设计的芯片。 他们表示,这一时间表可能会发生变化。
目前,NVIDIA 的 GPU 占有 80% 以上的市场份额。 但短缺和成本上升已导致微软、Meta 和 OpenAI 等主要客户开始探索内部或外部替代方案。
OpenAI 计划通过微软的 Azure 使用 AMD 芯片,这表明 AMD 的新型 MI300X 芯片正试图从 NVIDIA 主导的市场中分一杯羹。 AMD 预计,继 2023 年第四季度推出该芯片后,2024 年的 AI 芯片销售额将达到 45 亿美元。
训练人工智能模型和运营 ChatGPT 等服务的成本很高。 据知情人士透露,OpenAI 已预计今年将亏损 50 亿美元,收入为 37 亿美元。 计算成本,即处理大型数据集和开发模型所需的硬件、电力和云服务支出是该公司最大的开支,这促使该公司努力优化利用率并实现供应商多样化。
消息人士补充说,OpenAI在从NVIDIA挖人才方面一直很谨慎,因为它希望与这家芯片制造商保持良好的合作关系,尤其是在使用其新一代Blackwell芯片方面。
NVIDIA拒绝对此发表评论。