ข้ามไปยังเนื้อหาหลัก

ส่วนต่างๆ ของหน้านี้อาจได้รับการแปลโดยเครื่องหรือ AI

ค้นพบ, เชื่อมต่อ, เติบโต

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับสตาร์ทอัพและนักพัฒนาแบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI แล้วหรือยัง Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยให้บริษัทสตาร์ทอัพ ผู้ประกอบการ และนักพัฒนาสร้างธุรกิจใหม่บนเทคโนโลยี AI เข้าร่วมกับเรา!

ค้นพบ, เชื่อมต่อ, เติบโต

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับสตาร์ทอัพและนักพัฒนาแบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI แล้วหรือยัง Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยให้บริษัทสตาร์ทอัพ ผู้ประกอบการ และนักพัฒนาสร้างธุรกิจใหม่บนเทคโนโลยี AI เข้าร่วมกับเรา!

กลับไป

Building a LLM Judge with Weights & Biases

29 ตุลาคม, 2567 | 5:00 หลังเที่ยง - 6:00 หลังเที่ยง (UTC) เวลามาตรฐานสากล

  • รูปแบบ:
  • alt##LivestreamLivestream

หัวข้อ: แอปพลิเคชัน AI

ภาษา: ภาษาอังกฤษ

Evaluating LLM outputs accurately is critical to being able to iterate quickly on a LLM system. Human annotations can be slow and expensive and using LLMs instead promises to solve this. However, aligning a LLM Judge with human judgements is often hard with many implementation details to consider. In this workshop we will explore:

  • Evaluating specialized LLMs using Weave
  • Productionizing the latest LLM-as-a-judge research
  • Improving on your existing judge
  • Building annotation UIs
  • LLM

ผู้พูด

กิจกรรมที่เกี่ยวข้อง

กิจกรรมด้านล่างนี้อาจน่าสนใจสําหรับคุณเช่นกัน อย่าลืมเยี่ยมชมของเรา หน้าแรกของ Reactor เพื่อดูเหตุการณ์ที่พร้อมใช้งานทั้งหมด