Entsperren sie eine neue Ära der Innovation mit Der Windows Copilot Runtime

Erstellen Sie intelligente KI-Umgebungen unter Windows und skalieren Sie auf eine Breite von Windows-Hardware.

Nutzen leistungsstarker KI-Funktionen mit Windows Copilot-Runtime-APIs

Transformieren Sie Ihre Windows-Erfahrungen mit einer leistungsstarken Gruppe von ApIs auf Geräten.

Erste Schritte mit Windows Copilot-Runtime-APIs

  • Phi-Silika

    Ermöglichen Sie Ihrer Windows-App die Verbindung mit dem Geräte-Phi-Modell für Aufgaben zur Verarbeitung natürlicher Sprachen (Chat, Mathematik, Code, Gründe usw.) mithilfe des Windows App SDK.

    Weitere Informationen
  • Rückruf

    Rückruf nutzt KI, um Benutzern zu helfen, fast alles zu finden, was sie auf ihrem PC gesehen haben, indem Sie auf die Windows UserActivity-API tippen.

    Weitere Informationen
  • Studioeffekte

    Anwenden von Spezialeffekten auf die Gerätekamera mit der Studio Effects-API.

    Weitere Informationen

Bereitstellen von benutzerdefinierten KI-Modellen in Ihrer Windows-App

Von nativen zu Web-Apps nutzen Sie DirectML und WebNN, um KI-Innovationen für Ihre Kunden in Windows

Erste Schritte mit benutzerdefinierten Modellen

  • ONNX- und ONNX-Runtime

    Das ONNX-Format ist ein offener Standard, mit dem ML-Modelle auf Windows-Geräten mit ONNX-Runtime ausgeführt werden können.

  • PyTorch

    PyTorch mit DirectML ermöglicht Schulungen und Rückschlüsse auf komplexe Machine Learning-Modelle auf einer breiten Palette von DirectX 12-kompatibler Hardware.

  • WebNN

    Die WebNN-API nutzt die DirectML-API unter Windows, um auf die systemeigenen Hardwarefunktionen zuzugreifen und die Ausführung neuraler Netzwerkmodelle zu optimieren.

  • Proben

    Erste Schritte mit unseren umfangreichen C#- und Python-Beispielen.

Abstraktes Bild eines Windows-Hintergrundbilds

Skalieren von KI-Innovationen mit Leichtigkeit mit DirectML

DirectML ist eine einzelne, hardwareübergreifende DirectX-API für hardwarebeschleunigtes maschinelles Lernen unter Windows. DirectML bietet GPU- und NPU-Beschleunigung über eine breite Palette unterstützter Hardware von AMD, Intel, Nvidia und Qualcomm. DirectML verbindet sich auch mit ONNX-Runtime, PyTorch und WebNN, um erstaunliche KI-Erfahrungen in nativen und Web-Apps zu ermöglichen.

Trainieren und Optimieren von Modellen unter Windows

Das AI Toolkit für Visual Studio Code bietet Tools und Zugriff auf einen Modellkatalog, um lokale KI-Entwicklung und -Bereitstellung zu starten.

Abbildung des VS Code AI Toolkit

Erfahren Sie, wie andere mit KI- erfolgreich

Abbildung des Logos von Topaz Labs

Topaz Labs befähigen Kreative mit innovativer KI-basierter Foto- und Videoverbesserungssoftware. Unter Nutzung von ONNX Runtime, Olive und DirectML nutzen wir die von AMD GPUs angebotenen höheren Verarbeitungsgeschwindigkeiten. Mit unserer starken Zusammenarbeit mit AMD und Microsoft können wir große Modelle wie Stable Diffusion für AMD-Laptops lokal optimieren, die mit integrierten GPUs ausgestattet sind. Dank dieses Powerhouse-Trios erzielen unsere stabilen Diffusionsmodelle eine bemerkenswerte 4X-Geschwindigkeitsverbesserung auf AMD GPUs. - Dr. Suraj Raghuraman, Leiter AI Engine, Topaz Labs