Naar hoofdinhoud gaan

Delen van deze pagina kunnen machinaal of door AI vertaald zijn.

ONTDEKKEN, VERBINDEN, GROEIEN

Microsoft Reactor

Word lid van Microsoft Reactor en neem live contact op met startups en ontwikkelaars

Klaar om aan de slag te gaan met AI? Microsoft Reactor biedt evenementen, training en community-resources om start-ups, ondernemers en ontwikkelaars te helpen hun volgende bedrijf op basis van AI-technologie uit te bouwen. Doe mee!

ONTDEKKEN, VERBINDEN, GROEIEN

Microsoft Reactor

Word lid van Microsoft Reactor en neem live contact op met startups en ontwikkelaars

Klaar om aan de slag te gaan met AI? Microsoft Reactor biedt evenementen, training en community-resources om start-ups, ondernemers en ontwikkelaars te helpen hun volgende bedrijf op basis van AI-technologie uit te bouwen. Doe mee!

Terug

Python + AI: Quality and safety

16 oktober, 2025 | 5:00 p.m. - 6:00 p.m. (UTC) Coordinated Universal Time

  • Notatie:
  • alt##LivestreamLivestream

Onderwerp: Codering, talen en frameworks

Taal: Engels

Now that we're more than halfway through our Python + AI series, we're covering a crucial topic: how to use AI safely, and how to evaluate the quality of AI outputs.

There are multiple mitigation layers when working with LLMs: the model itself, a safety system on top, the prompting and context, and the application user experience. Our focus will be on Azure tools that make it easier to put safe AI systems into production.

We'll show how to configure the Azure AI Content Safety system when working with Azure AI models, and how to handle those errors in Python code. Then we'll use the Azure AI Evaluation SDK to evaluate the safety and quality of the output from our LLM.

Vereisten

Habla espaƱol? Tendremos una serie para hispanohablantes!

Sprekers

Gerelateerde gebeurtenissen

De onderstaande gebeurtenissen zijn ook interessant voor u. Zorg ervoor dat u onze Reactor-startpagina om alle beschikbare gebeurtenissen weer te geven.