メイン コンテンツにスキップ

このページの一部は機械またはAIによって翻訳される場合があります。

発見し、つながり、成長する

Microsoft Reactor

Microsoft Reactor に参加し、スタートアップ企業や開発者とライブで関わる

AI を始める準備はできていますか?  Microsoft Reactor は、スタートアップ企業、起業家、開発者が AI テクノロジの上に次のビジネスを構築するのに役立つイベント、トレーニング、コミュニティ リソースを提供します。 ご参加ください。

発見し、つながり、成長する

Microsoft Reactor

Microsoft Reactor に参加し、スタートアップ企業や開発者とライブで関わる

AI を始める準備はできていますか?  Microsoft Reactor は、スタートアップ企業、起業家、開発者が AI テクノロジの上に次のビジネスを構築するのに役立つイベント、トレーニング、コミュニティ リソースを提供します。 ご参加ください。

戻る

Deploying and Monitoring LLM Inference Endpoints

16 7月, 2024 | 6:00 午後 - 7:00 午後 (UTC) 協定世界時

  • 形式:
  • alt##Livestreamライブストリーム

トピック: データ サイエンスと機械学習

言語: 英語

In this session we will dive into deploying LLMs to Production Inference Endpoints and then putting in place automated monitoring metrics and alerts to help track model performance and suppress potential output issues such as toxicity.

We will also cover the process of optimizing LLMs using RAG, for relevant, accurate, and useful outputs.

You will leave this session with a comprehensive understanding about deploying LLMs to production and monitoring the models for issues such as Toxicity, relevance, and accuracy.

Try this other common AI use cases using the Wallaroo.AI Azure Inference Server Freemium Offer on Azure Marketplace and also try the Free Wallaroo.AI Community Edition

  • LLM

講演者

ご不明な点がございましたら、お問い合わせください reactor@microsoft.com