Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Sampling and Loss Weights in Multi-Domain Training

Created by
  • Haebom
Category
Empty

저자

Mahdi Salmani, Pratik Worah, Meisam Razaviyayn, Vahab Mirrokni

개요

대규모 딥러닝 모델 학습에는 방대한 양의 데이터가 필요하며, 이를 위해 위키피디아, 깃허브 등 다양한 도메인에서 데이터를 수집합니다. 각 도메인은 데이터 품질과 정보의 다양성에서 차이를 보이므로, 각 도메인에 얼마나 의존해야 하는지에 대한 문제가 제기됩니다. 본 연구는 데이터 혼합의 역할을 더 깊이 이해하기 위해, 배치에서 각 도메인의 기여도를 제어하는 샘플링 가중치와 훈련 중 각 도메인의 손실을 조절하는 손실 가중치, 두 가지 유형의 가중치를 연구합니다. 선형 회귀에 대한 엄격한 연구를 통해, 두 가중치가 상호 보완적인 역할을 함을 보여줍니다. 첫째, 확률적 경사 하강법(SGD)과 같은 반복적 방법에서 기울기 추정치의 분산을 줄일 수 있습니다. 둘째, 일반화 격차를 줄여 일반화 성능을 향상시킬 수 있습니다. 또한, 두 가중치를 결합하여 각 기여도를 포착하는 방법을 연구합니다.

시사점, 한계점

샘플링 가중치와 손실 가중치는 기울기 추정치의 분산을 줄이고 일반화 성능을 향상시키는 데 기여합니다.
두 가중치는 상호 보완적인 역할을 수행합니다.
샘플링 가중치와 손실 가중치의 결합된 역학 연구를 통해 각 기여도를 포착하는 방법을 탐구합니다.
본 연구는 선형 회귀에 초점을 맞춰 진행되었으므로, 다른 복잡한 모델에 대한 일반화는 추가적인 연구가 필요합니다.
👍