使用 Windows Copilot 运行时解锁新的创新时代

在 Windows 上构建智能 AI 体验,并跨大量 Windows 硬件进行缩放。

利用具有 Windows Copilot 运行时 API 的强大 AI 功能

使用一组功能强大的设备 API 转换 Windows 体验。

Windows Copilot 运行时 API 入门

  • Phi 二氧化铁

    使 Windows 应用能够使用 Windows 应用 SDK 连接到设备上的 Phi 模型,以执行自然语言处理任务(聊天、数学、代码、推理等)。

    了解更多信息
  • 召回

    回想利用 AI 帮助用户通过点击 Windows UserActivity API 在电脑上找到的几乎所有内容。

    了解更多信息
  • 工作室效果

    使用工作室效果 API 将特殊效果应用于设备相机。

    了解更多信息

自定义 AI 模型 部署到 Windows 应用中

从本机应用到 Web 应用,利用 DirectML 和 WebNN 在 Windows

自定义模型入门

  • ONNX 和 ONNX 运行时

    ONNX 格式是一种开放标准,允许 ML 模型在具有 ONNX 运行时的 Windows 设备上运行。

  • PyTorch

    使用 DirectML 的 PyTorch 可以在各种与 DirectX 12 兼容的硬件上训练和推断复杂的机器学习模型。

  • WebNN

    WebNN API 利用 Windows 上的 DirectML API 访问本机硬件功能并优化神经网络模型的执行。

  • 样品

    开始使用各种 C# 和 Python 示例。

Windows 壁纸的抽象图像

使用 DirectML 轻松缩放 AI 创新

DirectML 是 Windows 上硬件加速机器学习的单一跨硬件 DirectX API。 DirectML 提供来自 AMD、Intel、Nvidia 和 Qualcomm 的各种受支持硬件的 GPU 和 NPU 加速。 DirectML 还与 ONNX 运行时、PyTorch 和 WebNN 连接,以在本机和 Web 应用中实现惊人的 AI 体验。

在 Windows 上训练和微调模型

用于 Visual Studio Code 的 AI 工具包提供工具和访问模型目录,以帮助快速启动本地 AI 开发和部署。

VS Code AI 工具包的图像

了解其他人如何通过 AI 成功

Topaz Labs 徽标的图像

Topaz Labs 为创意专业人员提供创新的 AI 驱动的照片和视频增强软件。 利用 ONNX 运行时、Olive 和 DirectML,我们利用 AMD GPU 提供的提高处理速度。 我们与 AMD 和 Microsoft的紧密协作使我们能够在本地优化大型模型,例如配备集成 GPU 的 AMD 笔记本电脑的稳定扩散。 由于这个强大的三重奏,我们的稳定扩散模型在 AMD GPU 上实现了出色的 4X 速度改进。 - Suraj Raghuraman 博士,Topaz Labs AI 引擎主管