Ignora e passa al contenuto principale

LEARN, CONNECT, BUILD

Microsoft Reactor

Partecipa a Microsoft Reactor e interagisci con gli sviluppatori live

Sei pronto per iniziare a usare l''intelligenza artificiale e le tecnologie più recenti? Microsoft Reactor fornisce eventi, formazione e risorse della community per aiutare sviluppatori, imprenditori e startup a sviluppare la tecnologia di intelligenza artificiale e altro ancora. Unisciti a noi.

LEARN, CONNECT, BUILD

Microsoft Reactor

Partecipa a Microsoft Reactor e interagisci con gli sviluppatori live

Sei pronto per iniziare a usare l''intelligenza artificiale e le tecnologie più recenti? Microsoft Reactor fornisce eventi, formazione e risorse della community per aiutare sviluppatori, imprenditori e startup a sviluppare la tecnologia di intelligenza artificiale e altro ancora. Unisciti a noi.

Indietro

Build a multi-LLM chat application with Azure Container Apps

11 aprile, 2024 | 3:30 PM - 3:45 PM (UTC) Coordinated Universal Time

  • Formato:
  • alt##LivestreamLive Stream

Argomento: Codifica, linguaggi e framework

Lingua: italiano

In this demo, explore how to leverage GPU workload profiles in ACA to run your own model backend, and easily switch, compare, and speed up your inference times. You will also explore how to leverage LlamaIndex (https://github.com/run-llama/llama_index) to ingest data on-demand, and host models using Ollama (https://github.com/ollama/ollama). Then finally, decompose the application as a set of microservices written in Python, deployed on ACA.

  • Azure

Relatori

Eventi correlati

Anche gli eventi seguenti potrebbero essere di interesse per l'utente. Assicurati di visitare il nostro Home page del reattore per visualizzare tutti gli eventi disponibili.

Parti di questa pagina possono essere tradotte da macchina o IA.