주요 콘텐츠로 건너뛰기
megaphone icon

AI Dev Days Hackathon

Build production‑ready AI during our global hack using Microsoft’s latest AI, agent, and dev tools to solve real‑world problems and compete for prizes.

LEARN, CONNECT, BUILD

Microsoft Reactor

Microsoft Reactor에 가입하고 개발자와 라이브 참여

AI 및 최신 기술을 시작할 준비가 되셨나요? Microsoft Reactor는 개발자, 기업가 및 신생 기업이 AI 기술 등을 기반으로 구축하는 데 도움이 되는 이벤트, 교육 및 커뮤니티 리소스를 제공합니다. 참여하세요.

LEARN, CONNECT, BUILD

Microsoft Reactor

Microsoft Reactor에 가입하고 개발자와 라이브 참여

AI 및 최신 기술을 시작할 준비가 되셨나요? Microsoft Reactor는 개발자, 기업가 및 신생 기업이 AI 기술 등을 기반으로 구축하는 데 도움이 되는 이벤트, 교육 및 커뮤니티 리소스를 제공합니다. 참여하세요.

돌아가기

Python + Agents: Monitoring and evaluating agents

26 2월, 2026 | 6:30 오후 - 7:30 오후 (UTC) 협정 세계시

  • 서식:
  • alt##LivestreamLivestream

항목: 에이전트

언어: 영어

In the third session of our Python + Agents series, we’ll focus on two essential components of building reliable agents: observability and evaluation.

We’ll begin with observability, using OpenTelemetry to capture traces, metrics, and logs from agent actions. You'll learn how to instrument your agents and use a local Aspire dashboard to identify slowdowns and failures.

From there, we’ll explore how to evaluate agent behavior using the Azure AI Evaluation SDK. You’ll see how to define evaluation criteria, run automated assessments over a set of tasks, and analyze the results to measure accuracy, helpfulness, and task success.

By the end of the session, you’ll have practical tools and workflows for monitoring, measuring, and improving your agents—so they’re not just functional, but dependable and verifiably effective.

필수 조건

To follow along with the live examples, sign up for a free GitHub account. If you are brand new to generative AI with Python, start with our our 9-part Python + AI series, which covers LLMs, embedding models, RAG, tool calling, MCP, and more.

스피커

이미 등록되어 있으며 취소해야 합니까? 등록 취소

등록

Microsoft 계정으로 로그인

로그인

또는 등록할 전자 메일 주소를 입력합니다.

*

이 이벤트에 등록하면 다음을 준수하기로 동의합니다. Microsoft Reactor 행동 강령.

이 페이지의 일부는 기계 또는 AI 번역될 수 있습니다.