Passer directement au contenu principal

DÉCOUVRIR, ÉTABLIR DES RELATION ET GRANDIR

Microsoft Reactor

Rejoignez Microsoft Reactor et collaborez avec les start-ups et les développeurs en direct

Êtes-vous prêt à démarrer avec l’IA ?  Microsoft Reactor propose des événements, des formations et des ressources communautaires pour aider les start-ups, les entrepreneurs et les développeurs à fonder leurs futures activités sur la technologie de l’IA. Rejoignez-nous !

DÉCOUVRIR, ÉTABLIR DES RELATION ET GRANDIR

Microsoft Reactor

Rejoignez Microsoft Reactor et collaborez avec les start-ups et les développeurs en direct

Êtes-vous prêt à démarrer avec l’IA ?  Microsoft Reactor propose des événements, des formations et des ressources communautaires pour aider les start-ups, les entrepreneurs et les développeurs à fonder leurs futures activités sur la technologie de l’IA. Rejoignez-nous !

Retourner

Deploying and Monitoring LLM Inference Endpoints

16 juillet, 2024 | 6:00 PM - 7:00 PM (UTC) Temps universel coordonné

  • Format:
  • alt##LivestreamStream en direct

Thème: Science des données et Machine Learning

Langage: À l’aide de la langue anglaise

In this session we will dive into deploying LLMs to Production Inference Endpoints and then putting in place automated monitoring metrics and alerts to help track model performance and suppress potential output issues such as toxicity.

We will also cover the process of optimizing LLMs using RAG, for relevant, accurate, and useful outputs.

You will leave this session with a comprehensive understanding about deploying LLMs to production and monitoring the models for issues such as Toxicity, relevance, and accuracy.

Try this other common AI use cases using the Wallaroo.AI Azure Inference Server Freemium Offer on Azure Marketplace and also try the Free Wallaroo.AI Community Edition

  • LLM

Intervenants

Pour toute question, contactez-nous à l’adresse reactor@microsoft.com