微软推出 Windows AI Foundry 一个用于本地 AI 开发的统一平台
微软已通过 Windows Copilot Runtime 支持 Windows 上的本地 AI 应用,该运行时通过 Windows AI API 和 Windows 机器学习 (ML) 提供各种 AI 功能。Copilot+ PC 上 Windows Copilot Runtime 背后的模型在本地后台持续运行。
在 Build 2025 大会上,微软宣布推出Windows AI Foundry,这是一个在 Windows 上进行本地 AI 开发的统一平台,它将整合 Windows Copilot Runtime 和多项新功能。Windows AI Foundry 将提供由内置 AI 模型支持的即用型 AI API、自定义 Windows 内置模型的工具、从 Azure AI Foundry 导入开源模型的功能,以及一个推理运行时,方便开发者导入自己的模型。
应用程序开发人员依赖于来自不同供应商的各种 AI 模型。因此,Windows AI Foundry 将集成来自 Azure Foundry Local 的 AI 模型,甚至集成来自 Ollama 和NVIDIA等其他模型库的 AI 模型。微软自有的 Foundry Local 模型目录将包含经过优化的 AI 模型,这些模型可跨 CPU、GPU 和 NPU 运行。开发者可以使用“winget install Microsoft.FoundryLocal”命令根据设备兼容性浏览、下载和测试模型。选定模型后,开发者可以使用 Foundry Local SDK 轻松地将 Foundry Local 集成到他们的应用中。
Windows ML 是 Windows 内置的 AI 推理运行时,支持在 CPU、GPU 和 NPU 之间简化高效的模型部署。它基于 DirectML,支持 AMD、Intel、NVIDIA、高通等多家供应商的芯片。基于 Windows ML 构建的应用程序开发人员不必担心未来的芯片更新,因为 Windows ML 将能够使所有必需的依赖项保持最新状态,并能够适应新的芯片。
微软还宣布将支持 LoRA 技术用于 Phi Silica 模型。LoRA 支持使用自定义数据对模型参数的一小部分进行微调。这种高效的微调将提升某些类型任务的性能。LoRA 目前已在骁龙 X 系列 NPU 上的 Windows App SDK 1.8 Experimental 2 中提供公开预览版,并将在未来几个月内应用于英特尔和 AMD Copilot+ PC。
最后,微软宣布推出全新语义搜索 API,助力开发者利用其应用数据打造 AI 赋能的搜索体验。这款 AI 赋能的搜索功能可在本地运行,并支持 RAG(检索增强生成)。这些语义搜索 API 现已在所有 Copilot+ 电脑上以私人预览版形式提供。
了解更多: