Bỏ qua để đến nội dung chính

Các phần của trang này có thể được dịch bằng máy hoặc AI.

KHÁM PHÁ, KẾT NỐI, PHÁT TRIỂN

Microsoft Reactor

Tham gia Lò phản ứng của Microsoft và tham gia với các công ty khởi nghiệp và nhà phát triển trực tiếp

Bạn đã sẵn sàng bắt đầu với AI? Microsoft Reactor cung cấp các sự kiện, đào tạo và tài nguyên cộng đồng để giúp các doanh nghiệp khởi nghiệp, doanh nhân và nhà phát triển xây dựng doanh nghiệp tiếp theo của họ trên công nghệ AI. Hãy tham gia cùng chúng tôi!

KHÁM PHÁ, KẾT NỐI, PHÁT TRIỂN

Microsoft Reactor

Tham gia Lò phản ứng của Microsoft và tham gia với các công ty khởi nghiệp và nhà phát triển trực tiếp

Bạn đã sẵn sàng bắt đầu với AI? Microsoft Reactor cung cấp các sự kiện, đào tạo và tài nguyên cộng đồng để giúp các doanh nghiệp khởi nghiệp, doanh nhân và nhà phát triển xây dựng doanh nghiệp tiếp theo của họ trên công nghệ AI. Hãy tham gia cùng chúng tôi!

Quay lại

Deploying and Monitoring LLM Inference Endpoints

16 tháng 7, 2024 | 6:00 CH - 7:00 CH (UTC) Giờ phối hợp quốc tế

  • Định dạng:
  • alt##LivestreamPhát trực tiếp

Chủ đề: Khoa học dữ liệu &; Học máy

Ngôn ngữ: Tiếng Anh

In this session we will dive into deploying LLMs to Production Inference Endpoints and then putting in place automated monitoring metrics and alerts to help track model performance and suppress potential output issues such as toxicity.

We will also cover the process of optimizing LLMs using RAG, for relevant, accurate, and useful outputs.

You will leave this session with a comprehensive understanding about deploying LLMs to production and monitoring the models for issues such as Toxicity, relevance, and accuracy.

Try this other common AI use cases using the Wallaroo.AI Azure Inference Server Freemium Offer on Azure Marketplace and also try the Free Wallaroo.AI Community Edition

  • LLM

Loa

Mọi thắc mắc, vui lòng liên hệ với chúng tôi theo địa chỉ reactor@microsoft.com