Gwyneth Peña-Siguenza (Español)
Microsoft
LEARN, CONNECT, BUILD
Ready to get started with AI and the latest technologies? Microsoft Reactor provides events, training, and community resources to help developers, entrepreneurs and startups build on AI technology and more. Join us!
LEARN, CONNECT, BUILD
Ready to get started with AI and the latest technologies? Microsoft Reactor provides events, training, and community resources to help developers, entrepreneurs and startups build on AI technology and more. Join us!
26 February, 2026 | 11:00 PM - 12:00 AM (UTC) Coordinated Universal Time
Topic: Agents
Language: Spanish
En la tercera sesión de nuestra serie de Python + Agents, nos vamos a enfocar en dos componentes esenciales para construir agents confiables: observability y evaluation.
Vamos a empezar con observability, usando OpenTelemetry para capturar traces, metrics y logs de las acciones del agent.
Vas a aprender a instrumentar tus agents y usar un dashboard local de Aspire para identificar slowdowns y failures.
Luego, vamos a ver cómo evaluar el comportamiento del agent usando el Azure AI Evaluation SDK. Vas a ver cómo definir criterios de evaluación, correr assessments automatizados sobre un set de tasks, y analizar resultados para medir accuracy, helpfulness y task success.
Al final de la sesión, vas a tener herramientas y workflows prácticos para monitorear, medir y mejorar tus agents—para que no solo funcionen, sino que también sean confiables y verificablemente efectivos.
Para seguir los ejemplos en vivo, crea una cuenta gratis de GitHub.
Si estás empezando desde cero con IA generativa en Python, arranca con nuestra serie de 9 partes Python + IA, que cubre LLMs, modelos de embeddings, RAG, llamadas a herramientas, MCP y más.
Speakers
Already registered and need to cancel? Cancel registration
This event is part of the Python + Agentes: Creando agentes y flujos de IA con Agent Framework Series.
Click here to visit the Series Page where you could see all the upcoming and on-demand events.