ข้ามไปยังเนื้อหาหลัก

ส่วนต่างๆ ของหน้านี้อาจได้รับการแปลโดยเครื่องหรือ AI

ค้นพบ, เชื่อมต่อ, เติบโต

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับสตาร์ทอัพและนักพัฒนาแบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI แล้วหรือยัง Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยให้บริษัทสตาร์ทอัพ ผู้ประกอบการ และนักพัฒนาสร้างธุรกิจใหม่บนเทคโนโลยี AI เข้าร่วมกับเรา!

ค้นพบ, เชื่อมต่อ, เติบโต

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับสตาร์ทอัพและนักพัฒนาแบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI แล้วหรือยัง Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยให้บริษัทสตาร์ทอัพ ผู้ประกอบการ และนักพัฒนาสร้างธุรกิจใหม่บนเทคโนโลยี AI เข้าร่วมกับเรา!

กลับไป

RAGChat: Monitoring and tracing LLM calls

12 กุมภาพันธ์, 2568 | 11:30 หลังเที่ยง - 12:30 ก่อนเที่ยง (UTC) เวลามาตรฐานสากล

  • รูปแบบ:
  • alt##LivestreamLivestream

หัวข้อ: แอปพลิเคชัน AI

ภาษา: ภาษาอังกฤษ

In this series, we dive deep into our most popular, fully-featured, and open-source RAG solution: https://aka.ms/ragchat

When your RAG app is in production, observability is crucial. You need to know about performance issues, runtime errors, and LLM-specific issues like Content Safety filter violations. In this session, learn how to use Azure Monitor along with OpenTelemetry SDKs to monitor the RAG application.


📌 Get more RAG resources!

  • RAG

ผู้พูด

กิจกรรมที่เกี่ยวข้อง

กิจกรรมด้านล่างนี้อาจน่าสนใจสําหรับคุณเช่นกัน อย่าลืมเยี่ยมชมของเรา หน้าแรกของ Reactor เพื่อดูเหตุการณ์ที่พร้อมใช้งานทั้งหมด