Przejdź do głównej zawartości

LEARN, CONNECT, BUILD

Microsoft Reactor

Dołącz do usługi Microsoft Reactor i skontaktuj się z deweloperami na żywo

Chcesz rozpocząć pracę ze sztuczną inteligencją i najnowszymi technologiami? Usługa Microsoft Reactor udostępnia zdarzenia, szkolenia i zasoby społeczności, które ułatwiają deweloperom, przedsiębiorcom i startupom tworzenie technologii sztucznej inteligencji i nie tylko. Dołącz do nas!

LEARN, CONNECT, BUILD

Microsoft Reactor

Dołącz do usługi Microsoft Reactor i skontaktuj się z deweloperami na żywo

Chcesz rozpocząć pracę ze sztuczną inteligencją i najnowszymi technologiami? Usługa Microsoft Reactor udostępnia zdarzenia, szkolenia i zasoby społeczności, które ułatwiają deweloperom, przedsiębiorcom i startupom tworzenie technologii sztucznej inteligencji i nie tylko. Dołącz do nas!

Wstecz

Build a multi-LLM chat application with Azure Container Apps

11 kwietnia, 2024 | 3:30 PM - 3:45 PM (UTC) Uniwersalny czas koordynowany

  • Formatuj:
  • alt##LivestreamTransmisja strumieniowa na żywo

Temat: Kodowanie, języki i struktury

Język: angielski

In this demo, explore how to leverage GPU workload profiles in ACA to run your own model backend, and easily switch, compare, and speed up your inference times. You will also explore how to leverage LlamaIndex (https://github.com/run-llama/llama_index) to ingest data on-demand, and host models using Ollama (https://github.com/ollama/ollama). Then finally, decompose the application as a set of microservices written in Python, deployed on ACA.

  • Azure

Prelegenci

Zdarzenia pokrewne

Poniższe wydarzenia mogą Cię również zainteresować. Pamiętaj, aby odwiedzić nasz Strona główna reaktora aby wyświetlić wszystkie dostępne zdarzenia.

Części tej strony mogą być tłumaczone maszynowo lub przez AI.