Hoppa till huvudinnehållet

Delar av denna sida kan vara maskin- eller AI-översatta.

UPPTÄCK, ANSLUT, VÄXA

Microsoft-reaktor

Gå med i Microsoft Reactor och kommunicera med startups och utvecklare live

Är du redo att komma igång med AI? Microsoft Reactor tillhandahåller evenemang, utbildning och communityresurser som hjälper startups, entreprenörer och utvecklare att bygga sin nästa verksamhet på AI-teknik. Följ med oss!

UPPTÄCK, ANSLUT, VÄXA

Microsoft-reaktor

Gå med i Microsoft Reactor och kommunicera med startups och utvecklare live

Är du redo att komma igång med AI? Microsoft Reactor tillhandahåller evenemang, utbildning och communityresurser som hjälper startups, entreprenörer och utvecklare att bygga sin nästa verksamhet på AI-teknik. Följ med oss!

Gå tillbaka

Improving Large Language Model by Systematically Improving its Data

26 februari, 2024 | 12:00 em - 1:00 em (UTC) Samordnad universell tid

  • Format:
  • alt##LivestreamLivestream

Ämne: Datavetenskap & Machine Learning

Språk: Engelska

Labeled data powers AI/ML in the enterprise, but real-world datasets have been found to contain between 7-50% annotation errors. Imperfectly labelled text data hampers ML models' training (and evaluation) across tasks like intent recognition, entity recognition, and sequence generation. Although pretrained LLMs are equipped with a lot of world knowledge, their performance is adversely affected by noisy training data (as noted by OpenAI).

In this talk, we illustrate data-centric techniques to mitigate the effect of label noise without changing any code related to model architecture, hyperparameters, or training. These data quality improvement techniques should thus remain applicable even for future advanced LLMs like GPT-10.

Högtalare

För frågor kontakta oss på reactor@microsoft.com