ข้ามไปยังเนื้อหาหลัก

ส่วนต่างๆ ของหน้านี้อาจได้รับการแปลโดยเครื่องหรือ AI

ค้นพบ, เชื่อมต่อ, เติบโต

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับสตาร์ทอัพและนักพัฒนาแบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI แล้วหรือยัง Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยให้บริษัทสตาร์ทอัพ ผู้ประกอบการ และนักพัฒนาสร้างธุรกิจใหม่บนเทคโนโลยี AI เข้าร่วมกับเรา!

ค้นพบ, เชื่อมต่อ, เติบโต

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับสตาร์ทอัพและนักพัฒนาแบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI แล้วหรือยัง Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยให้บริษัทสตาร์ทอัพ ผู้ประกอบการ และนักพัฒนาสร้างธุรกิจใหม่บนเทคโนโลยี AI เข้าร่วมกับเรา!

ย้อนกลับ

Build a multi-LLM chat application with Azure Container Apps

11 เมษายน, 2567 | 3:30 หลังเที่ยง - 3:45 หลังเที่ยง (UTC) เวลามาตรฐานสากล

  • รูป แบบ:
  • alt##LivestreamLivestream

หัว ข้อ: การเขียนโค้ด ภาษา และเฟรมเวิร์ก

ภาษา: ภาษาอังกฤษ

In this demo, explore how to leverage GPU workload profiles in ACA to run your own model backend, and easily switch, compare, and speed up your inference times. You will also explore how to leverage LlamaIndex (https://github.com/run-llama/llama_index) to ingest data on-demand, and host models using Ollama (https://github.com/ollama/ollama). Then finally, decompose the application as a set of microservices written in Python, deployed on ACA.

  • Azure

ลำโพง

เหตุการณ์ที่เกี่ยวข้อง

อีเวนต์ด้านล่างนี้อาจเป็นกิจกรรมที่คุณสนใจเช่นกัน อย่าลืมเยี่ยมชม โฮมเพจเครื่องปฏิกรณ์ เพื่อดูเหตุการณ์ที่พร้อมใช้งานทั้งหมด

สําหรับคําถามโปรดติดต่อเราที่ reactor@microsoft.com