OpenAI o3-mini 现已在 GitHub Copilot 和 Microsoft Azure 上提供

摘要:

OpenAI 今天宣布了o3-mini,这是其最新的经济型推理模型,在数学、编码和科学领域的性能可与 OpenAI 的 o1 模型相媲美。 新的 o3-mini 模型可通过 OpenAI 的 API 使用,并通过聊天完成 API、助手 API 和批处理 API 完全支持函数调用、结构化输出、流式处理和开发人员消息。

与 OpenAI 的声明不谋而合、 微软现已宣布OpenAI 的 o3-mini 在 Azure OpenAI 服务中可用。 感兴趣的开发人员可以注册 Azure AI Foundry 以访问 o3-mini。

微软核心人工智能产品副总裁 Yina Arenas 就 o3-mini 的发布撰文如下:

与 o1-mini 相比,o3-mini 通过增强的推理能力、推理工作量控制和工具等新功能显著提高了成本效率,同时提供了相当或更好的响应能力。

微软的 GitHub 也宣布在面向开发人员的 GitHub Copilot 和 GitHub Models 中提供 o3-mini。 与 o1-mini 相比,开发人员可以期待从新的 o3-mini 模型中获得更高质量的输出。 GitHub Copilot Pro、Business 和 Enterprise 用户可通过 Visual Studio Code 中的模型选择器和 github.com 聊天使用新模型。 GitHub 将在未来几周内为 Visual Studio 和 JetBrains 提供 o3-mini 模型支持。

GitHub Copilot 用户每 12 小时将收到多达 50 条信息。 GitHub Business 或 Enterprise 管理员也可通过管理员设置页面为其组织成员启用新的 o3-mini 模型访问权限。

GitHub 还将 o3-mini 带到了 GitHub 模型游乐场,开发人员可以在这里探索该模型的功能,并将其与 Cohere、DeepSeek、Meta 和 Mistral 的其他模型进行比较。

o3-mini 模型在多个平台上的可用性将使开发人员能够将其新的推理能力集成到他们的应用程序和服务中。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看评论
created by ceallan