Passer directement au contenu principal
icône mégaphone

Microsoft Build 2026

Go deep on real code and real systems at Microsoft Build

APPRENDRE, SE CONNECTER, CRÉER

Microsoft Reactor

Rejoignez Microsoft Reactor et collaborez avec les développeurs en direct

Prêt à bien démarrer avec l’IA et les dernières technologies ? Microsoft Reactor fournit des événements, des formations et des ressources communautaires pour aider les développeurs, les entrepreneurs et les start-ups à se baser sur la technologie IA et bien plus encore. Rejoignez-nous !

APPRENDRE, SE CONNECTER, CRÉER

Microsoft Reactor

Rejoignez Microsoft Reactor et collaborez avec les développeurs en direct

Prêt à bien démarrer avec l’IA et les dernières technologies ? Microsoft Reactor fournit des événements, des formations et des ressources communautaires pour aider les développeurs, les entrepreneurs et les start-ups à se baser sur la technologie IA et bien plus encore. Rejoignez-nous !

Retourner

Deploying and Monitoring LLM Inference Endpoints

16 juillet, 2024 | 6:00 PM - 7:00 PM (UTC) Temps universel coordonné

  • Format:
  • alt##LivestreamStream en direct

Thème: Science des données et Machine Learning

Langage: À l’aide de la langue anglaise

In this session we will dive into deploying LLMs to Production Inference Endpoints and then putting in place automated monitoring metrics and alerts to help track model performance and suppress potential output issues such as toxicity.

We will also cover the process of optimizing LLMs using RAG, for relevant, accurate, and useful outputs.

You will leave this session with a comprehensive understanding about deploying LLMs to production and monitoring the models for issues such as Toxicity, relevance, and accuracy.

Try this other common AI use cases using the Wallaroo.AI Azure Inference Server Freemium Offer on Azure Marketplace and also try the Free Wallaroo.AI Community Edition

  • LLM

Intervenants

Certaines parties de cette page peuvent être traduites par machine ou IA.