Ana içeriğe atla

LEARN, CONNECT, BUILD

Microsoft Reactor

Microsoft Reactor'a katılın ve geliştiricilerle canlı etkileşim kurun

Yapay zeka ve en son teknolojileri kullanmaya başlamaya hazır mısınız? Microsoft Reactor geliştiricilerin, girişimcilerin ve startup''ların yapay zeka teknolojisi ve daha fazlasını geliştirmesine yardımcı olmak için etkinlikler, eğitimler ve topluluk kaynakları sağlar. Bize katılın!

LEARN, CONNECT, BUILD

Microsoft Reactor

Microsoft Reactor'a katılın ve geliştiricilerle canlı etkileşim kurun

Yapay zeka ve en son teknolojileri kullanmaya başlamaya hazır mısınız? Microsoft Reactor geliştiricilerin, girişimcilerin ve startup''ların yapay zeka teknolojisi ve daha fazlasını geliştirmesine yardımcı olmak için etkinlikler, eğitimler ve topluluk kaynakları sağlar. Bize katılın!

Geri dön

Python + IA: Calidad y seguridad

27 Mart, 2025 | 10:00 ÖS - 11:00 ÖS (UTC) Eşgüdümlü Evrensel Saat

  • Biçimlendir:
  • alt##LivestreamCanlı akış

Konu: AI Uygulamaları

Dil: İspanyolca

En nuestra sesión final de la serie Python + IA, culminamos con un tema crucial: cómo usar la IA de manera segura y cómo evaluar la calidad de las salidas de IA.
Hay múltiples capas de mitigación cuando se trabaja con LLMs: el modelo en sí, un sistema de seguridad superpuesto, el prompt y contexto, y la experiencia de usuario de la aplicación. Nuestro enfoque será en las herramientas de Azure que facilitan poner sistemas de IA seguros en producción.
Mostraremos cómo configurar el sistema Azure AI Content Safety cuando se trabaja con modelos de Azure AI, y cómo manejar esos errores en código Python. Luego usaremos el SDK de Evaluación de Azure AI para evaluar la seguridad y calidad de la salida de Nuestro LLM.

Konuşmacılar

İlgili Olaylar

Aşağıdaki olaylar da ilginizi çekebilir. Ziyaret etmeye emin olun Reactor giriş sayfası tüm kullanılabilir olayları görmek için.

Bu sayfanın bazı bölümleri makine veya AI tarafından çevrilebilir.