Přeskočit na hlavní obsah

LEARN, CONNECT, BUILD

Microsoft Reactor

Připojte se k Microsoft Reactoru a zapojte se s vývojáři živě

Jste připravení začít s AI a nejnovějšími technologiemi? Microsoft Reactor poskytuje události, školení a komunitní zdroje, které vývojářům, podnikatelům a startupům pomáhají rozvíjet technologie AI a další. Připojte se k nám!

LEARN, CONNECT, BUILD

Microsoft Reactor

Připojte se k Microsoft Reactoru a zapojte se s vývojáři živě

Jste připravení začít s AI a nejnovějšími technologiemi? Microsoft Reactor poskytuje události, školení a komunitní zdroje, které vývojářům, podnikatelům a startupům pomáhají rozvíjet technologie AI a další. Připojte se k nám!

Přejít zpět

Improving Large Language Model by Systematically Improving its Data

26 února, 2024 | 12:00 odp. - 1:00 odp. (UTC) Koordinovaný univerzální čas

  • Formát:
  • alt##LivestreamŽivý stream

Téma: Datová Věda a strojové učení

Jazyk: Angličtina

Labeled data powers AI/ML in the enterprise, but real-world datasets have been found to contain between 7-50% annotation errors. Imperfectly labelled text data hampers ML models' training (and evaluation) across tasks like intent recognition, entity recognition, and sequence generation. Although pretrained LLMs are equipped with a lot of world knowledge, their performance is adversely affected by noisy training data (as noted by OpenAI).

In this talk, we illustrate data-centric techniques to mitigate the effect of label noise without changing any code related to model architecture, hyperparameters, or training. These data quality improvement techniques should thus remain applicable even for future advanced LLMs like GPT-10.

Přednášející

Související události

Níže uvedené události vás mohou také zajímat. Nezapomeňte navštívit naše Domovská stránka reaktoru zobrazení všech dostupných událostí.

Části této stránky mohou být přeloženy strojově nebo AI.