ข้ามไปยังเนื้อหาหลัก

เรียนรู้ เชื่อมต่อ สร้าง

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับนักพัฒนาซอฟต์แวร์แบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI และเทคโนโลยีล่าสุดหรือไม่ Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยเหลือนักพัฒนา ผู้ประกอบการ และสตาร์ทอัพที่สร้างขึ้นบนเทคโนโลยี AI และอื่น ๆ เข้าร่วมกับเรา!

เรียนรู้ เชื่อมต่อ สร้าง

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับนักพัฒนาซอฟต์แวร์แบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI และเทคโนโลยีล่าสุดหรือไม่ Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยเหลือนักพัฒนา ผู้ประกอบการ และสตาร์ทอัพที่สร้างขึ้นบนเทคโนโลยี AI และอื่น ๆ เข้าร่วมกับเรา!

กลับไป

Deploying and Monitoring LLM Inference Endpoints

16 กรกฎาคม, 2567 | 6:00 หลังเที่ยง - 7:00 หลังเที่ยง (UTC) เวลามาตรฐานสากล

  • รูปแบบ:
  • alt##LivestreamLivestream

หัวข้อ: Data Science & Machine Learning

ภาษา: ภาษาอังกฤษ

In this session we will dive into deploying LLMs to Production Inference Endpoints and then putting in place automated monitoring metrics and alerts to help track model performance and suppress potential output issues such as toxicity.

We will also cover the process of optimizing LLMs using RAG, for relevant, accurate, and useful outputs.

You will leave this session with a comprehensive understanding about deploying LLMs to production and monitoring the models for issues such as Toxicity, relevance, and accuracy.

Try this other common AI use cases using the Wallaroo.AI Azure Inference Server Freemium Offer on Azure Marketplace and also try the Free Wallaroo.AI Community Edition

  • LLM

ผู้พูด

กิจกรรมที่เกี่ยวข้อง

กิจกรรมด้านล่างนี้อาจน่าสนใจสําหรับคุณเช่นกัน อย่าลืมเยี่ยมชมของเรา หน้าแรกของ Reactor เพื่อดูเหตุการณ์ที่พร้อมใช้งานทั้งหมด

ส่วนต่างๆ ของหน้านี้อาจได้รับการแปลโดยเครื่องหรือ AI