ข้ามไปยังเนื้อหาหลัก

เรียนรู้ เชื่อมต่อ สร้าง

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับนักพัฒนาซอฟต์แวร์แบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI และเทคโนโลยีล่าสุดหรือไม่ Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยเหลือนักพัฒนา ผู้ประกอบการ และสตาร์ทอัพที่สร้างขึ้นบนเทคโนโลยี AI และอื่น ๆ เข้าร่วมกับเรา!

เรียนรู้ เชื่อมต่อ สร้าง

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับนักพัฒนาซอฟต์แวร์แบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI และเทคโนโลยีล่าสุดหรือไม่ Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยเหลือนักพัฒนา ผู้ประกอบการ และสตาร์ทอัพที่สร้างขึ้นบนเทคโนโลยี AI และอื่น ๆ เข้าร่วมกับเรา!

กลับไป

Triton Inference Server in Azure ML Speeds Up Model Serving | #MVPConnect

26 เมษายน, 2566 | 12:30 หลังเที่ยง - 1:30 หลังเที่ยง (UTC) เวลามาตรฐานสากล

  • รูปแบบ:
  • alt##LivestreamLivestream

หัวข้อ: Data Science & Machine Learning

ภาษา: ภาษาอังกฤษ

Triton Inference Server from NVIDIA is a production-ready deep learning inference server in Azure Machine Learning.

What will you learn from the session?
How you can deploy a deep learning model using Triton server using Azure Machine Learning Managed Endpoints.

**Speaker Bio - Ayyanar Jeyakrishnan **
Ayyanar Jeyakrishnan has around 17+ years of IT experience. He is passionate about learning and sharing knowledge on Azure, AWS, Kubernetes, DevOps, Machine Learning, Well Architected Framework in Cloud. He actively contributes to the Cloudnloud Tech community which helps cancer childhood. He has 50+ Technical Certification in AWS, Azure, IBM Cloud, CKA/CKAD, TOGAF Level 2 Certified.

Social Handle
LinkedIn - https://www.linkedin.com/in/jayyanar
Twitter - https://twitter.com/jayyanar1987

  • #ReactorBengaluru

ผู้พูด

กิจกรรมที่เกี่ยวข้อง

กิจกรรมด้านล่างนี้อาจน่าสนใจสําหรับคุณเช่นกัน อย่าลืมเยี่ยมชมของเรา หน้าแรกของ Reactor เพื่อดูเหตุการณ์ที่พร้อมใช้งานทั้งหมด

ส่วนต่างๆ ของหน้านี้อาจได้รับการแปลโดยเครื่องหรือ AI