주요 콘텐츠로 건너뛰기
메가폰 아이콘

Microsoft Build 2026

Go deep on real code and real systems at Microsoft Build

LEARN, CONNECT, BUILD

Microsoft Reactor

Microsoft Reactor에 가입하고 개발자와 라이브 참여

AI 및 최신 기술을 시작할 준비가 되셨나요? Microsoft Reactor는 개발자, 기업가 및 신생 기업이 AI 기술 등을 기반으로 구축하는 데 도움이 되는 이벤트, 교육 및 커뮤니티 리소스를 제공합니다. 참여하세요.

LEARN, CONNECT, BUILD

Microsoft Reactor

Microsoft Reactor에 가입하고 개발자와 라이브 참여

AI 및 최신 기술을 시작할 준비가 되셨나요? Microsoft Reactor는 개발자, 기업가 및 신생 기업이 AI 기술 등을 기반으로 구축하는 데 도움이 되는 이벤트, 교육 및 커뮤니티 리소스를 제공합니다. 참여하세요.

돌아가기

Python + Agentes: Monitoreo y evaluación de agentes

27 2월, 2026 | 12:00 오전 - 1:00 오전 (UTC) 협정 세계시

  • 서식:
  • alt##LivestreamLivestream

항목: 에이전트

언어: 스페인어

En la tercera sesión de nuestra serie de Python + Agents, nos vamos a enfocar en dos componentes esenciales para construir agents confiables: observability y evaluation.

Vamos a empezar con observability, usando OpenTelemetry para capturar traces, metrics y logs de las acciones del agent.
Vas a aprender a instrumentar tus agents y usar un dashboard local de Aspire para identificar slowdowns y failures.

Luego, vamos a ver cómo evaluar el comportamiento del agent usando el Azure AI Evaluation SDK. Vas a ver cómo definir criterios de evaluación, correr assessments automatizados sobre un set de tasks, y analizar resultados para medir accuracy, helpfulness y task success.

Al final de la sesión, vas a tener herramientas y workflows prácticos para monitorear, medir y mejorar tus agents—para que no solo funcionen, sino que también sean confiables y verificablemente efectivos.

필수 조건

Para seguir los ejemplos en vivo, crea una cuenta gratis de GitHub.
Si estás empezando desde cero con IA generativa en Python, arranca con nuestra serie de 9 partes Python + IA, que cubre LLMs, modelos de embeddings, RAG, llamadas a herramientas, MCP y más.

스피커

이 페이지의 일부는 기계 또는 AI 번역될 수 있습니다.