Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

SMOGAN: Synthetic Minority Oversampling with GAN Refinement for Imbalanced Regression

Created by
  • Haebom

저자

Shayan Alahyari, Mike Domaratzki

개요

본 논문은 불균형 회귀 문제를 해결하기 위한 새로운 방법인 SMOGAN을 제안합니다. 불균형 회귀는 종속 변수의 분포가 치우친 문제로, 기존의 기계 학습 모델, 특히 신경망은 밀집된 영역에 집중하여 과소 표현된 표본에 대해 성능이 저하됩니다. 기존의 불균형 회귀 해결 방법들은 선형 보간이나 가우시안 노이즈 추가와 같은 방법으로 합성 데이터를 생성하지만, 복잡하고 비선형적인 데이터 분포에서는 정확한 표현이 어렵습니다. SMOGAN은 기존의 과대 샘플링 방법으로 초기 합성 샘플을 생성한 후, DistGAN이라는 분포 인식 GAN을 이용하여 최대 평균 불일치(MMD) 목표 함수를 추가한 적대적 손실을 통해 합성 샘플을 실제 특징-목표 분포에 맞추어 개선합니다. 23개의 불균형 데이터셋에 대한 실험 결과, SMOGAN은 DistGAN 필터링 계층 없이 기본 과대 샘플링 방법보다 일관되게 우수한 성능을 보였습니다.

시사점, 한계점

시사점:
불균형 회귀 문제에 대한 효과적인 해결책인 SMOGAN 제시.
DistGAN을 활용하여 기존 과대 샘플링 방법의 한계를 극복.
다양한 불균형 데이터셋에서 우수한 성능 검증.
한계점:
DistGAN의 학습 안정성 및 효율성에 대한 추가적인 연구 필요.
다양한 종류의 불균형 데이터셋에 대한 일반화 성능 평가 필요.
SMOGAN의 계산 비용이 기존 방법보다 높을 수 있음.
👍