Chuyển đến nội dung chính

Các phần của trang này có thể được dịch bằng máy hoặc AI.

KHÁM PHÁ, KẾT NỐI, PHÁT TRIỂN

Microsoft Reactor

Tham gia Lò phản ứng của Microsoft và tham gia với các công ty khởi nghiệp và nhà phát triển trực tiếp

Bạn đã sẵn sàng bắt đầu với AI? Microsoft Reactor cung cấp các sự kiện, đào tạo và tài nguyên cộng đồng để giúp các doanh nghiệp khởi nghiệp, doanh nhân và nhà phát triển xây dựng doanh nghiệp tiếp theo của họ trên công nghệ AI. Hãy tham gia cùng chúng tôi!

KHÁM PHÁ, KẾT NỐI, PHÁT TRIỂN

Microsoft Reactor

Tham gia Lò phản ứng của Microsoft và tham gia với các công ty khởi nghiệp và nhà phát triển trực tiếp

Bạn đã sẵn sàng bắt đầu với AI? Microsoft Reactor cung cấp các sự kiện, đào tạo và tài nguyên cộng đồng để giúp các doanh nghiệp khởi nghiệp, doanh nhân và nhà phát triển xây dựng doanh nghiệp tiếp theo của họ trên công nghệ AI. Hãy tham gia cùng chúng tôi!

Quay lại

Build a multi-LLM chat application with Azure Container Apps

11 tháng 4, 2024 | 3:30 CH - 3:45 CH (UTC) Giờ phối hợp quốc tế

  • Định dạng:
  • alt##LivestreamPhát trực tiếp

Chủ đề: Mã hóa, ngôn ngữ và khung

Ngôn ngữ: Tiếng Anh

In this demo, explore how to leverage GPU workload profiles in ACA to run your own model backend, and easily switch, compare, and speed up your inference times. You will also explore how to leverage LlamaIndex (https://github.com/run-llama/llama_index) to ingest data on-demand, and host models using Ollama (https://github.com/ollama/ollama). Then finally, decompose the application as a set of microservices written in Python, deployed on ACA.

  • Azure

Người phát biểu

Sự kiện liên quan

Các sự kiện dưới đây cũng có thể được bạn quan tâm. Hãy chắc chắn ghé thăm Trang chủ lò phản ứng để xem tất cả các sự kiện có sẵn.