ข้ามไปยังเนื้อหาหลัก

เรียนรู้ เชื่อมต่อ สร้าง

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับนักพัฒนาซอฟต์แวร์แบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI และเทคโนโลยีล่าสุดหรือไม่ Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยเหลือนักพัฒนา ผู้ประกอบการ และสตาร์ทอัพที่สร้างขึ้นบนเทคโนโลยี AI และอื่น ๆ เข้าร่วมกับเรา!

เรียนรู้ เชื่อมต่อ สร้าง

Microsoft Reactor

เข้าร่วม Microsoft Reactor และมีส่วนร่วมกับนักพัฒนาซอฟต์แวร์แบบสด

พร้อมที่จะเริ่มต้นใช้งาน AI และเทคโนโลยีล่าสุดหรือไม่ Microsoft Reactor มีกิจกรรม การฝึกอบรม และทรัพยากรของชุมชนเพื่อช่วยเหลือนักพัฒนา ผู้ประกอบการ และสตาร์ทอัพที่สร้างขึ้นบนเทคโนโลยี AI และอื่น ๆ เข้าร่วมกับเรา!

กลับไป

Improving Large Language Model by Systematically Improving its Data

26 กุมภาพันธ์, 2567 | 12:00 หลังเที่ยง - 1:00 หลังเที่ยง (UTC) เวลามาตรฐานสากล

  • รูปแบบ:
  • alt##LivestreamLivestream

หัวข้อ: Data Science & Machine Learning

ภาษา: ภาษาอังกฤษ

Labeled data powers AI/ML in the enterprise, but real-world datasets have been found to contain between 7-50% annotation errors. Imperfectly labelled text data hampers ML models' training (and evaluation) across tasks like intent recognition, entity recognition, and sequence generation. Although pretrained LLMs are equipped with a lot of world knowledge, their performance is adversely affected by noisy training data (as noted by OpenAI).

In this talk, we illustrate data-centric techniques to mitigate the effect of label noise without changing any code related to model architecture, hyperparameters, or training. These data quality improvement techniques should thus remain applicable even for future advanced LLMs like GPT-10.

ผู้พูด

กิจกรรมที่เกี่ยวข้อง

กิจกรรมด้านล่างนี้อาจน่าสนใจสําหรับคุณเช่นกัน อย่าลืมเยี่ยมชมของเรา หน้าแรกของ Reactor เพื่อดูเหตุการณ์ที่พร้อมใช้งานทั้งหมด

ส่วนต่างๆ ของหน้านี้อาจได้รับการแปลโดยเครื่องหรือ AI