Bỏ qua để đến nội dung chính

Các phần của trang này có thể được dịch bằng máy hoặc AI.

KHÁM PHÁ, KẾT NỐI, PHÁT TRIỂN

Microsoft Reactor

Tham gia Lò phản ứng của Microsoft và tham gia với các công ty khởi nghiệp và nhà phát triển trực tiếp

Bạn đã sẵn sàng bắt đầu với AI? Microsoft Reactor cung cấp các sự kiện, đào tạo và tài nguyên cộng đồng để giúp các doanh nghiệp khởi nghiệp, doanh nhân và nhà phát triển xây dựng doanh nghiệp tiếp theo của họ trên công nghệ AI. Hãy tham gia cùng chúng tôi!

KHÁM PHÁ, KẾT NỐI, PHÁT TRIỂN

Microsoft Reactor

Tham gia Lò phản ứng của Microsoft và tham gia với các công ty khởi nghiệp và nhà phát triển trực tiếp

Bạn đã sẵn sàng bắt đầu với AI? Microsoft Reactor cung cấp các sự kiện, đào tạo và tài nguyên cộng đồng để giúp các doanh nghiệp khởi nghiệp, doanh nhân và nhà phát triển xây dựng doanh nghiệp tiếp theo của họ trên công nghệ AI. Hãy tham gia cùng chúng tôi!

Quay lại

Python + IA: Calidad y seguridad

27 tháng 3, 2025 | 10:00 CH - 11:00 CH (UTC) Giờ phối hợp quốc tế

  • Định dạng:
  • alt##LivestreamPhát trực tiếp

Chủ đề: Ứng dụng thông minh

Ngôn ngữ: Tiếng Tây Ban Nha

En nuestra sesión final de la serie Python + IA, culminamos con un tema crucial: cómo usar la IA de manera segura y cómo evaluar la calidad de las salidas de IA.
Hay múltiples capas de mitigación cuando se trabaja con LLMs: el modelo en sí, un sistema de seguridad superpuesto, el prompt y contexto, y la experiencia de usuario de la aplicación. Nuestro enfoque será en las herramientas de Azure que facilitan poner sistemas de IA seguros en producción.
Mostraremos cómo configurar el sistema Azure AI Content Safety cuando se trabaja con modelos de Azure AI, y cómo manejar esos errores en código Python. Luego usaremos el SDK de Evaluación de Azure AI para evaluar la seguridad y calidad de la salida de Nuestro LLM.

Loa

Mọi thắc mắc, vui lòng liên hệ với chúng tôi theo địa chỉ reactor@microsoft.com