Hoppa till huvudinnehåll

LEARN, CONNECT, BUILD

Microsoft Reactor

Gå med i Microsoft Reactor och interagera med utvecklare live

Är du redo att komma igång med AI och de senaste teknikerna? Microsoft Reactor tillhandahåller evenemang, utbildning och communityresurser som hjälper utvecklare, entreprenörer och nystartade företag att bygga vidare på AI-teknik med mera. Följ med!

LEARN, CONNECT, BUILD

Microsoft Reactor

Gå med i Microsoft Reactor och interagera med utvecklare live

Är du redo att komma igång med AI och de senaste teknikerna? Microsoft Reactor tillhandahåller evenemang, utbildning och communityresurser som hjälper utvecklare, entreprenörer och nystartade företag att bygga vidare på AI-teknik med mera. Följ med!

Gå tillbaka

Improving Large Language Model by Systematically Improving its Data

26 februari, 2024 | 12:00 em - 1:00 em (UTC) Samordnad universell tid

  • Format:
  • alt##LivestreamLivestream

Område: Datavetenskap & Machine Learning

Språk: Engelska

Labeled data powers AI/ML in the enterprise, but real-world datasets have been found to contain between 7-50% annotation errors. Imperfectly labelled text data hampers ML models' training (and evaluation) across tasks like intent recognition, entity recognition, and sequence generation. Although pretrained LLMs are equipped with a lot of world knowledge, their performance is adversely affected by noisy training data (as noted by OpenAI).

In this talk, we illustrate data-centric techniques to mitigate the effect of label noise without changing any code related to model architecture, hyperparameters, or training. These data quality improvement techniques should thus remain applicable even for future advanced LLMs like GPT-10.

Talare

Relaterade händelser

Händelserna nedan kan också vara av intresse för dig. Var noga med att besöka vår Reaktorns startsida för att se alla tillgängliga händelser.

Delar av denna sida kan vara maskin- eller AI-översatta.