Ana içeriğe atla

LEARN, CONNECT, BUILD

Microsoft Reactor

Microsoft Reactor'a katılın ve geliştiricilerle canlı etkileşim kurun

Yapay zeka ve en son teknolojileri kullanmaya başlamaya hazır mısınız? Microsoft Reactor geliştiricilerin, girişimcilerin ve startup''ların yapay zeka teknolojisi ve daha fazlasını geliştirmesine yardımcı olmak için etkinlikler, eğitimler ve topluluk kaynakları sağlar. Bize katılın!

LEARN, CONNECT, BUILD

Microsoft Reactor

Microsoft Reactor'a katılın ve geliştiricilerle canlı etkileşim kurun

Yapay zeka ve en son teknolojileri kullanmaya başlamaya hazır mısınız? Microsoft Reactor geliştiricilerin, girişimcilerin ve startup''ların yapay zeka teknolojisi ve daha fazlasını geliştirmesine yardımcı olmak için etkinlikler, eğitimler ve topluluk kaynakları sağlar. Bize katılın!

Geri dön

Deploying and Monitoring LLM Inference Endpoints

16 Temmuz, 2024 | 6:00 ÖS - 7:00 ÖS (UTC) Eşgüdümlü Evrensel Saat

  • Biçimlendir:
  • alt##LivestreamCanlı akış

Konu: Veri Bilimi & Machine Learning

Dil: İngilizce

In this session we will dive into deploying LLMs to Production Inference Endpoints and then putting in place automated monitoring metrics and alerts to help track model performance and suppress potential output issues such as toxicity.

We will also cover the process of optimizing LLMs using RAG, for relevant, accurate, and useful outputs.

You will leave this session with a comprehensive understanding about deploying LLMs to production and monitoring the models for issues such as Toxicity, relevance, and accuracy.

Try this other common AI use cases using the Wallaroo.AI Azure Inference Server Freemium Offer on Azure Marketplace and also try the Free Wallaroo.AI Community Edition

  • LLM

Konuşmacılar

İlgili Olaylar

Aşağıdaki olaylar da ilginizi çekebilir. Ziyaret etmeye emin olun Reactor giriş sayfası tüm kullanılabilir olayları görmek için.

Bu sayfanın bazı bölümleri makine veya AI tarafından çevrilebilir.