Lewati ke konten utama

PELAJARI, SAMBUNGKAN, BANGUN

Microsoft Reactor

Bergabung dengan Microsoft Reactor dan terlibat dengan pengembang secara langsung

Siap untuk mulai menggunakan AI dan teknologi terbaru? Microsoft Reactor menyediakan acara, pelatihan, dan sumber daya komunitas untuk membantu pengembang, pengusaha, dan startup dibangun berdasarkan teknologi AI dan banyak lagi. Gabung dengan kami!

PELAJARI, SAMBUNGKAN, BANGUN

Microsoft Reactor

Bergabung dengan Microsoft Reactor dan terlibat dengan pengembang secara langsung

Siap untuk mulai menggunakan AI dan teknologi terbaru? Microsoft Reactor menyediakan acara, pelatihan, dan sumber daya komunitas untuk membantu pengembang, pengusaha, dan startup dibangun berdasarkan teknologi AI dan banyak lagi. Gabung dengan kami!

Kembali

Improving Large Language Model by Systematically Improving its Data

26 Februari, 2024 | 12.00 PM - 1.00 PM (UTC) Waktu Universal Terkoordinasi

  • Format:
  • alt##LivestreamStreaming Langsung

Topik: Ilmu Data &Pembelajaran Mesin

Bahasa: Inggris

Labeled data powers AI/ML in the enterprise, but real-world datasets have been found to contain between 7-50% annotation errors. Imperfectly labelled text data hampers ML models' training (and evaluation) across tasks like intent recognition, entity recognition, and sequence generation. Although pretrained LLMs are equipped with a lot of world knowledge, their performance is adversely affected by noisy training data (as noted by OpenAI).

In this talk, we illustrate data-centric techniques to mitigate the effect of label noise without changing any code related to model architecture, hyperparameters, or training. These data quality improvement techniques should thus remain applicable even for future advanced LLMs like GPT-10.

Pembicara

Bagian dari halaman ini mungkin diterjemahkan oleh mesin atau AI.