ข้ามไปยังเนื้อหาหลัก

ส่วนต่างๆ ของหน้านี้อาจได้รับการแปลโดยเครื่องหรือ AI

ค้นพบ, เชื่อมต่อ, เติบโต

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับสตาร์ทอัพและนักพัฒนาแบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI แล้วหรือยัง Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยให้บริษัทสตาร์ทอัพ ผู้ประกอบการ และนักพัฒนาสร้างธุรกิจใหม่บนเทคโนโลยี AI เข้าร่วมกับเรา!

ค้นพบ, เชื่อมต่อ, เติบโต

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับสตาร์ทอัพและนักพัฒนาแบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI แล้วหรือยัง Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยให้บริษัทสตาร์ทอัพ ผู้ประกอบการ และนักพัฒนาสร้างธุรกิจใหม่บนเทคโนโลยี AI เข้าร่วมกับเรา!

กลับไป

Python + AI: Tool calling

21 ตุลาคม, 2568 | 5:00 หลังเที่ยง - 6:00 หลังเที่ยง (UTC) เวลามาตรฐานสากล

  • รูปแบบ:
  • alt##LivestreamLivestream

หัวข้อ: การเขียนโค้ด ภาษา และเฟรมเวิร์ก

ภาษา: ภาษาอังกฤษ

Now that we're more than halfway through our Python + AI series, we're covering a crucial topic: how to use AI safely, and how to evaluate the quality of AI outputs.

There are multiple mitigation layers when working with LLMs: the model itself, a safety system on top, the prompting and context, and the application user experience. Our focus will be on Azure tools that make it easier to put safe AI systems into production.

We'll show how to configure the Azure AI Content Safety system when working with Azure AI models, and how to handle those errors in Python code. Then we'll use the Azure AI Evaluation SDK to evaluate the safety and quality of the output from our LLM.

ข้อกำหนดเบื้องต้น

If you'd like to follow along with the live examples, make sure you've got a GitHub account.

Habla español? Tendremos una serie para hispanohablantes!

ผู้พูด

ลงทะเบียนแล้วและต้องการยกเลิกใช่หรือไม่ ยกเลิกการลงทะเบียน

การลงทะเบียน

ลงชื่อเข้าใช้ด้วยบัญชี Microsoft

ลงชื่อเข้าใช้

หรือป้อนที่อยู่อีเมลของคุณเพื่อลงทะเบียน

*

โดยการลงทะเบียนสําหรับเหตุการณ์นี้ คุณยอมรับที่จะปฏิบัติตาม จรรยาบรรณของ Microsoft Reactor.