Naar de hoofdinhoud gaan

ONTDEKKEN, VERBINDEN, GROEIEN

Microsoft Reactor

Word lid van Microsoft Reactor en neem live contact op met startups en ontwikkelaars

Klaar om aan de slag te gaan met AI? Microsoft Reactor biedt evenementen, training en community-resources om start-ups, ondernemers en ontwikkelaars te helpen hun volgende bedrijf op basis van AI-technologie uit te bouwen. Doe mee!

ONTDEKKEN, VERBINDEN, GROEIEN

Microsoft Reactor

Word lid van Microsoft Reactor en neem live contact op met startups en ontwikkelaars

Klaar om aan de slag te gaan met AI? Microsoft Reactor biedt evenementen, training en community-resources om start-ups, ondernemers en ontwikkelaars te helpen hun volgende bedrijf op basis van AI-technologie uit te bouwen. Doe mee!

Terug

Deploying and Monitoring LLM Inference Endpoints

16 juli, 2024 | 6:00 p.m. - 7:00 p.m. (UTC) Coordinated Universal Time

  • Formaat:
  • alt##LivestreamLivestream

Onderwerp: Datawetenschap & Machine Learning

Language: Engels

In this session we will dive into deploying LLMs to Production Inference Endpoints and then putting in place automated monitoring metrics and alerts to help track model performance and suppress potential output issues such as toxicity.

We will also cover the process of optimizing LLMs using RAG, for relevant, accurate, and useful outputs.

You will leave this session with a comprehensive understanding about deploying LLMs to production and monitoring the models for issues such as Toxicity, relevance, and accuracy.

Try this other common AI use cases using the Wallaroo.AI Azure Inference Server Freemium Offer on Azure Marketplace and also try the Free Wallaroo.AI Community Edition

  • LLM

Sprekers

Voor vragen kunt u contact met ons opnemen op reactor@microsoft.com