주요 콘텐츠로 건너뛰기
메가폰 아이콘

Microsoft Build 2026

Microsoft Build에서 실제 코드 및 실제 시스템에 대해 자세히 알아보기

LEARN, CONNECT, BUILD

Microsoft Reactor

Microsoft Reactor에 가입하고 개발자와 라이브 참여

AI 및 최신 기술을 시작할 준비가 되셨나요? Microsoft Reactor는 개발자, 기업가 및 신생 기업이 AI 기술 등을 기반으로 구축하는 데 도움이 되는 이벤트, 교육 및 커뮤니티 리소스를 제공합니다. 참여하세요.

LEARN, CONNECT, BUILD

Microsoft Reactor

Microsoft Reactor에 가입하고 개발자와 라이브 참여

AI 및 최신 기술을 시작할 준비가 되셨나요? Microsoft Reactor는 개발자, 기업가 및 신생 기업이 AI 기술 등을 기반으로 구축하는 데 도움이 되는 이벤트, 교육 및 커뮤니티 리소스를 제공합니다. 참여하세요.

돌아가기

Deploying and Monitoring LLM Inference Endpoints

16 7월, 2024 | 6:00 오후 - 7:00 오후 (UTC) 협정 세계시

  • 서식:
  • alt##LivestreamLivestream

항목: 데이터 과학 및 Machine Learning

언어: 영어

In this session we will dive into deploying LLMs to Production Inference Endpoints and then putting in place automated monitoring metrics and alerts to help track model performance and suppress potential output issues such as toxicity.

We will also cover the process of optimizing LLMs using RAG, for relevant, accurate, and useful outputs.

You will leave this session with a comprehensive understanding about deploying LLMs to production and monitoring the models for issues such as Toxicity, relevance, and accuracy.

Try this other common AI use cases using the Wallaroo.AI Azure Inference Server Freemium Offer on Azure Marketplace and also try the Free Wallaroo.AI Community Edition

  • LLM

스피커

이 페이지의 일부는 기계 또는 AI 번역될 수 있습니다.