Ir al contenido principal

DESCUBRIR, CONECTAR, CRECER

Microsoft Reactor

Únase a Microsoft Reactor e interactúe con startups y desarrolladores en directo.

¿Todo listo para empezar a usar la IA? Microsoft Reactor proporciona eventos, formación y recursos de la comunidad para ayudar a startups, emprendedores y desarrolladores a crear su próximo negocio con tecnología basada en IA. ¡Acompáñenos!

DESCUBRIR, CONECTAR, CRECER

Microsoft Reactor

Únase a Microsoft Reactor e interactúe con startups y desarrolladores en directo.

¿Todo listo para empezar a usar la IA? Microsoft Reactor proporciona eventos, formación y recursos de la comunidad para ayudar a startups, emprendedores y desarrolladores a crear su próximo negocio con tecnología basada en IA. ¡Acompáñenos!

Volver

Deploying and Monitoring LLM Inference Endpoints

16 julio, 2024 | 6:00 p. m. - 7:00 p. m. (UTC) Hora universal coordinada

  • Formato:
  • alt##LivestreamLivestream

Tema del evento: Ciencia de datos y aprendizaje automático

Idioma: Inglés

In this session we will dive into deploying LLMs to Production Inference Endpoints and then putting in place automated monitoring metrics and alerts to help track model performance and suppress potential output issues such as toxicity.

We will also cover the process of optimizing LLMs using RAG, for relevant, accurate, and useful outputs.

You will leave this session with a comprehensive understanding about deploying LLMs to production and monitoring the models for issues such as Toxicity, relevance, and accuracy.

Try this other common AI use cases using the Wallaroo.AI Azure Inference Server Freemium Offer on Azure Marketplace and also try the Free Wallaroo.AI Community Edition

  • LLM

Oradores

Si tiene preguntas, póngase en contacto con nosotros a través de reactor@microsoft.com