Pular para o conteúdo principal

Partes desta página podem ser traduzidas por máquina ou IA.

DESCOBRIR, CONECTAR, CRESCER

Microsoft Reactor

Ingresse no Microsoft Reactor e interaja com startups e desenvolvedores ao vivo

Pronto para começar a usar a IA? O Microsoft Reactor fornece eventos, treinamento e recursos da comunidade para ajudar startups, empreendedores e desenvolvedores a criar seus próximos negócios em tecnologia de IA. Junte-se a nós!

DESCOBRIR, CONECTAR, CRESCER

Microsoft Reactor

Ingresse no Microsoft Reactor e interaja com startups e desenvolvedores ao vivo

Pronto para começar a usar a IA? O Microsoft Reactor fornece eventos, treinamento e recursos da comunidade para ajudar startups, empreendedores e desenvolvedores a criar seus próximos negócios em tecnologia de IA. Junte-se a nós!

Voltar

Deploying and Monitoring LLM Inference Endpoints

16 julho, 2024 | 6:00 PM - 7:00 PM (UTC) Tempo Universal Coordenado UTC

  • Formato:
  • alt##LivestreamTransmissão ao vivo

Tópico: Ciência de dados e machine learning

Linguagem: Inglês

In this session we will dive into deploying LLMs to Production Inference Endpoints and then putting in place automated monitoring metrics and alerts to help track model performance and suppress potential output issues such as toxicity.

We will also cover the process of optimizing LLMs using RAG, for relevant, accurate, and useful outputs.

You will leave this session with a comprehensive understanding about deploying LLMs to production and monitoring the models for issues such as Toxicity, relevance, and accuracy.

Try this other common AI use cases using the Wallaroo.AI Azure Inference Server Freemium Offer on Azure Marketplace and also try the Free Wallaroo.AI Community Edition

  • LLM

Palestrantes

Para perguntas, entre em contato conosco em reactor@microsoft.com