불균형 데이터 분포는 실제 시나리오에서 흔히 발생하며, 불균형 분류 및 회귀 작업 모두에 상당한 어려움을 야기합니다. 이러한 불균형은 딥러닝 모델이 고밀도 샘플 영역(many-shot regions)에서는 과적합되고, 저밀도 샘플 영역(few-shot regions)에서는 성능이 저하되는 원인이 됩니다. 특히, 저밀도 데이터 영역이 더 중요한 임상적 의미를 지니는 의료 분야에서 이러한 특징은 딥러닝 모델의 유용성을 제한합니다. 본 논문에서는 불균형 회귀 문제를 해결하기 위해, 모델의 예측과 목표 레이블 간의 분포 거리를 미분 가능한 방식으로 최소화하도록 설계된 새로운 손실 함수인 Dist Loss를 제안합니다. Dist Loss는 훈련 중 모델의 출력 분포를 규제하여 few-shot regions에 대한 집중도를 높입니다. IMDB-WIKI-DIR, AgeDB-DIR, ECG-Ka-DIR 세 가지 데이터셋을 사용한 실험 결과, Dist Loss가 불균형 데이터 분포의 부정적 영향을 효과적으로 완화하고, 특히 희소 데이터 영역에서 최첨단 결과를 달성함을 보여줍니다. 또한 Dist Loss는 기존 방법과의 호환성이 뛰어나기 때문에 쉽게 통합할 수 있습니다.