跳至主要内容

学习、联系、构建

Microsoft Reactor

加入 Microsoft Reactor 并实时与开发人员互动

准备好开始使用 AI 和最新技术了吗? Microsoft Reactor 提供活动、培训和社区资源,帮助开发人员、企业家和初创公司利用 AI 技术等。 快加入我们吧!

学习、联系、构建

Microsoft Reactor

加入 Microsoft Reactor 并实时与开发人员互动

准备好开始使用 AI 和最新技术了吗? Microsoft Reactor 提供活动、培训和社区资源,帮助开发人员、企业家和初创公司利用 AI 技术等。 快加入我们吧!

返回

Build a multi-LLM chat application with Azure Container Apps

11 四月, 2024 | 3:30 下午 - 3:45 下午 (UTC) 协调世界时

  • 形式:
  • alt##Livestream直播

主题: 编码、语言和框架

语言: 英语

In this demo, explore how to leverage GPU workload profiles in ACA to run your own model backend, and easily switch, compare, and speed up your inference times. You will also explore how to leverage LlamaIndex (https://github.com/run-llama/llama_index) to ingest data on-demand, and host models using Ollama (https://github.com/ollama/ollama). Then finally, decompose the application as a set of microservices written in Python, deployed on ACA.

  • Azure

主讲人

相关活动

你也可能对以下活动感兴趣。 请务必访问我们的 Reactor 主页 查看所有可用活动。

本页面的部分内容可能是机器翻译或人工智能翻译.