불균형 데이터 분포는 실세계 시나리오에서 흔히 발생하며, 불균형 분류 및 회귀 작업에 상당한 어려움을 초래합니다. 이는 딥러닝 모델이 고밀도 샘플 영역(다수 샷 영역)에서는 과적합되고 저밀도 샘플 영역(소수 샷 영역)에서는 성능이 저하되는 원인이 됩니다. 이러한 특징은 특히 소수 샷 데이터 영역이 더 큰 임상적 관련성을 갖는 의료 분야를 포함한 다양한 분야에서 딥러닝 모델의 유용성을 제한합니다. 최근 연구에서는 불균형 분류 작업에 분포 정보를 통합하는 것의 이점을 보여주었지만, 이러한 전략은 불균형 회귀에서는 거의 연구되지 않았습니다. 본 논문에서는 차별 가능한 방식으로 모델의 예측과 목표 레이블 간의 분포 거리를 최소화하도록 설계된 새로운 손실 함수인 Dist Loss를 제시하여 이 문제를 해결합니다. 이는 분포 정보를 모델 학습에 효과적으로 통합합니다. Dist Loss는 학습 중 딥러닝 모델이 출력 분포를 규제할 수 있도록 하여 소수 샷 영역에 대한 집중도를 효과적으로 높입니다. 컴퓨터 비전 및 의료 분야를 아우르는 세 가지 데이터셋(IMDB-WIKI-DIR, AgeDB-DIR, ECG-Ka-DIR)에 대한 광범위한 실험을 수행했습니다. 결과는 Dist Loss가 불균형 데이터 분포의 부정적 영향을 효과적으로 완화하고 희소 데이터 영역에서 최첨단 결과를 달성함을 보여줍니다. 또한 Dist Loss는 통합이 용이하며 기존 방법을 보완합니다.