Gwyneth Peña-Siguenza (Español)
Microsoft
學習、聯繫、建置
準備好開始使用 AI 和最新技術嗎? Microsoft Reactor 提供活動、訓練和社群資源,協助開發人員、企業家和初創公司建置 AI 技術等等。 加入我們!
學習、聯繫、建置
準備好開始使用 AI 和最新技術嗎? Microsoft Reactor 提供活動、訓練和社群資源,協助開發人員、企業家和初創公司建置 AI 技術等等。 加入我們!
27 2月, 2026 | 12:00 上午 - 1:00 上午 (UTC) 國際標準時間
主題: Agents
語言: 西班牙文
En la tercera sesión de nuestra serie de Python + Agents, nos vamos a enfocar en dos componentes esenciales para construir agents confiables: observability y evaluation.
Vamos a empezar con observability, usando OpenTelemetry para capturar traces, metrics y logs de las acciones del agent.
Vas a aprender a instrumentar tus agents y usar un dashboard local de Aspire para identificar slowdowns y failures.
Luego, vamos a ver cómo evaluar el comportamiento del agent usando el Azure AI Evaluation SDK. Vas a ver cómo definir criterios de evaluación, correr assessments automatizados sobre un set de tasks, y analizar resultados para medir accuracy, helpfulness y task success.
Al final de la sesión, vas a tener herramientas y workflows prácticos para monitorear, medir y mejorar tus agents—para que no solo funcionen, sino que también sean confiables y verificablemente efectivos.
Para seguir los ejemplos en vivo, crea una cuenta gratis de GitHub.
Si estás empezando desde cero con IA generativa en Python, arranca con nuestra serie de 9 partes Python + IA, que cubre LLMs, modelos de embeddings, RAG, llamadas a herramientas, MCP y más.
演講者
此活動屬於 Python + Agentes: Creando agentes y flujos de IA con Agent Framework Series.
按一下這裡以 造訪系列頁面 您可以在其中查看所有即將推出和隨選活動。