ข้ามไปยังเนื้อหาหลัก

ค้นพบ, เชื่อมต่อ, เติบโต

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับสตาร์ทอัพและนักพัฒนาแบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI แล้วหรือยัง Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยให้บริษัทสตาร์ทอัพ ผู้ประกอบการ และนักพัฒนาสร้างธุรกิจใหม่บนเทคโนโลยี AI เข้าร่วมกับเรา!

ค้นพบ, เชื่อมต่อ, เติบโต

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับสตาร์ทอัพและนักพัฒนาแบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI แล้วหรือยัง Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยให้บริษัทสตาร์ทอัพ ผู้ประกอบการ และนักพัฒนาสร้างธุรกิจใหม่บนเทคโนโลยี AI เข้าร่วมกับเรา!

ย้อนกลับ

Triton Inference Server in Azure ML Speeds Up Model Serving | #MVPConnect

26 เมษายน, 2566 | 12:30 หลังเที่ยง - 1:30 หลังเที่ยง (UTC) เวลามาตรฐานสากล

  • รูป แบบ:
  • alt##LivestreamLivestream

หัว ข้อ: Data Science & Machine Learning

ภาษา: ภาษาอังกฤษ

Triton Inference Server from NVIDIA is a production-ready deep learning inference server in Azure Machine Learning.

What will you learn from the session?
How you can deploy a deep learning model using Triton server using Azure Machine Learning Managed Endpoints.

**Speaker Bio - Ayyanar Jeyakrishnan **
Ayyanar Jeyakrishnan has around 17+ years of IT experience. He is passionate about learning and sharing knowledge on Azure, AWS, Kubernetes, DevOps, Machine Learning, Well Architected Framework in Cloud. He actively contributes to the Cloudnloud Tech community which helps cancer childhood. He has 50+ Technical Certification in AWS, Azure, IBM Cloud, CKA/CKAD, TOGAF Level 2 Certified.

Social Handle
LinkedIn - https://www.linkedin.com/in/jayyanar
Twitter - https://twitter.com/jayyanar1987

ข้อ กำหนด เบื้อง ต้น

https://github.com/triton-inference-server/server/blob/r20.12/README.md#documentation

  • #ReactorBengaluru

ลำโพง

สําหรับคําถามโปรดติดต่อเราที่ reactor@microsoft.com