Bỏ qua để đến nội dung chính

KHÁM PHÁ, KẾT NỐI, PHÁT TRIỂN

Microsoft Reactor

Tham gia Lò phản ứng của Microsoft và tham gia với các công ty khởi nghiệp và nhà phát triển trực tiếp

Bạn đã sẵn sàng bắt đầu với AI? Microsoft Reactor cung cấp các sự kiện, đào tạo và tài nguyên cộng đồng để giúp các doanh nghiệp khởi nghiệp, doanh nhân và nhà phát triển xây dựng doanh nghiệp tiếp theo của họ trên công nghệ AI. Hãy tham gia cùng chúng tôi!

KHÁM PHÁ, KẾT NỐI, PHÁT TRIỂN

Microsoft Reactor

Tham gia Lò phản ứng của Microsoft và tham gia với các công ty khởi nghiệp và nhà phát triển trực tiếp

Bạn đã sẵn sàng bắt đầu với AI? Microsoft Reactor cung cấp các sự kiện, đào tạo và tài nguyên cộng đồng để giúp các doanh nghiệp khởi nghiệp, doanh nhân và nhà phát triển xây dựng doanh nghiệp tiếp theo của họ trên công nghệ AI. Hãy tham gia cùng chúng tôi!

Quay lại

Improving Large Language Model by Systematically Improving its Data

26 tháng 2, 2024 | 12:00 CH - 1:00 CH (UTC) Giờ phối hợp quốc tế

  • Định dạng:
  • alt##LivestreamPhát trực tiếp

Chủ đề: Khoa học dữ liệu &; Học máy

Ngôn ngữ: Tiếng Anh

Labeled data powers AI/ML in the enterprise, but real-world datasets have been found to contain between 7-50% annotation errors. Imperfectly labelled text data hampers ML models' training (and evaluation) across tasks like intent recognition, entity recognition, and sequence generation. Although pretrained LLMs are equipped with a lot of world knowledge, their performance is adversely affected by noisy training data (as noted by OpenAI).

In this talk, we illustrate data-centric techniques to mitigate the effect of label noise without changing any code related to model architecture, hyperparameters, or training. These data quality improvement techniques should thus remain applicable even for future advanced LLMs like GPT-10.

Loa

Mọi thắc mắc, vui lòng liên hệ với chúng tôi theo địa chỉ reactor@microsoft.com