Zu Hauptinhalt wechseln

ENTDECKEN, VERBINDEN, WACHSEN

Microsoft Reactor

Treten Sie Microsoft Reactor bei, und engagieren Sie sich live mit Startups und Entwicklern

Sind Sie bereit für den Einstieg in die KI? Microsoft Reactor bietet Veranstaltungen, Schulungen und Communityressourcen, um Startups, Unternehmer und Entwickler beim Aufbau ihres nächsten Geschäfts mit KI-Technologie zu unterstützen. Seien Sie dabei!

ENTDECKEN, VERBINDEN, WACHSEN

Microsoft Reactor

Treten Sie Microsoft Reactor bei, und engagieren Sie sich live mit Startups und Entwicklern

Sind Sie bereit für den Einstieg in die KI? Microsoft Reactor bietet Veranstaltungen, Schulungen und Communityressourcen, um Startups, Unternehmer und Entwickler beim Aufbau ihres nächsten Geschäfts mit KI-Technologie zu unterstützen. Seien Sie dabei!

Zurück

Deploying and Monitoring LLM Inference Endpoints

16 Juli, 2024 | 6:00 PM - 7:00 PM (UTC) Koordinierte Weltzeit (UTC)

  • Format:
  • alt##LivestreamLivestream

Thema: Data Science und maschinelles Lernen

Sprache: Englisch

In this session we will dive into deploying LLMs to Production Inference Endpoints and then putting in place automated monitoring metrics and alerts to help track model performance and suppress potential output issues such as toxicity.

We will also cover the process of optimizing LLMs using RAG, for relevant, accurate, and useful outputs.

You will leave this session with a comprehensive understanding about deploying LLMs to production and monitoring the models for issues such as Toxicity, relevance, and accuracy.

Try this other common AI use cases using the Wallaroo.AI Azure Inference Server Freemium Offer on Azure Marketplace and also try the Free Wallaroo.AI Community Edition

  • LLM

Referenten

Bei Fragen können Sie uns wie folgt kontaktieren: reactor@microsoft.com