콘텐츠 기본 건너뛰기

이 페이지의 일부는 기계 또는 AI 번역될 수 있습니다.

검색, 연결, 성장

Microsoft Reactor

Microsoft Reactor에 가입하고 스타트업 및 개발자와 실시간 소통

AI를 시작할 준비가 되셨나요? Microsoft Reactor는 스타트업, 기업가 및 개발자가 AI 기술에 대한 다음 비즈니스를 구축할 수 있도록 이벤트, 교육 및 커뮤니티 리소스를 제공합니다. 참여해 주세요!

검색, 연결, 성장

Microsoft Reactor

Microsoft Reactor에 가입하고 스타트업 및 개발자와 실시간 소통

AI를 시작할 준비가 되셨나요? Microsoft Reactor는 스타트업, 기업가 및 개발자가 AI 기술에 대한 다음 비즈니스를 구축할 수 있도록 이벤트, 교육 및 커뮤니티 리소스를 제공합니다. 참여해 주세요!

돌아가기

Improving Large Language Model by Systematically Improving its Data

26 2월, 2024 | 12:00 오후 - 1:00 오후 (UTC) 협정 세계시

  • 형식:
  • alt##LivestreamLivestream

항목: 데이터 과학 및 Machine Learning

언어: 영어

Labeled data powers AI/ML in the enterprise, but real-world datasets have been found to contain between 7-50% annotation errors. Imperfectly labelled text data hampers ML models' training (and evaluation) across tasks like intent recognition, entity recognition, and sequence generation. Although pretrained LLMs are equipped with a lot of world knowledge, their performance is adversely affected by noisy training data (as noted by OpenAI).

In this talk, we illustrate data-centric techniques to mitigate the effect of label noise without changing any code related to model architecture, hyperparameters, or training. These data quality improvement techniques should thus remain applicable even for future advanced LLMs like GPT-10.

스피커

질문이 있는 경우 다음으로 문의하세요. reactor@microsoft.com