Pamela Fox
Microsoft
LEARN, CONNECT, BUILD
AI 및 최신 기술을 시작할 준비가 되셨나요? Microsoft Reactor는 개발자, 기업가 및 신생 기업이 AI 기술 등을 기반으로 구축하는 데 도움이 되는 이벤트, 교육 및 커뮤니티 리소스를 제공합니다. 참여하세요.
LEARN, CONNECT, BUILD
AI 및 최신 기술을 시작할 준비가 되셨나요? Microsoft Reactor는 개발자, 기업가 및 신생 기업이 AI 기술 등을 기반으로 구축하는 데 도움이 되는 이벤트, 교육 및 커뮤니티 리소스를 제공합니다. 참여하세요.
26 2월, 2026 | 6:30 오후 - 7:30 오후 (UTC) 협정 세계시
항목: 에이전트
언어: 영어
In the third session of our Python + Agents series, we’ll focus on two essential components of building reliable agents: observability and evaluation.
We’ll begin with observability, using OpenTelemetry to capture traces, metrics, and logs from agent actions. You'll learn how to instrument your agents and use a local Aspire dashboard to identify slowdowns and failures.
From there, we’ll explore how to evaluate agent behavior using the Azure AI Evaluation SDK. You’ll see how to define evaluation criteria, run automated assessments over a set of tasks, and analyze the results to measure accuracy, helpfulness, and task success.
By the end of the session, you’ll have practical tools and workflows for monitoring, measuring, and improving your agents—so they’re not just functional, but dependable and verifiably effective.
To follow along with the live examples, sign up for a free GitHub account. If you are brand new to generative AI with Python, start with our our 9-part Python + AI series, which covers LLMs, embedding models, RAG, tool calling, MCP, and more.
스피커
아래 이벤트는 사용자에게도 관심이 있을 수 있습니다. 반드시 방문하세요. Reactor 홈페이지 사용 가능한 모든 이벤트를 확인합니다.
서식:
Livestream
항목: 에이전트
언어: 영어
서식:
Livestream
항목: 에이전트
언어: 영어
이 이벤트는 다음의 일부입니다. Python + Agents: Building AI agents and workflows with Agent Framework Series.
여기를 클릭하여 시리즈 페이지 방문 예정된 모든 주문형 이벤트를 볼 수 있는 위치입니다.