Wasserstein distributionally robust optimization (WDRO)은 특정 불확실성 집합 내에서 최악의 경우의 분포 변화에 대응하여 최적화함으로써, 점별 적대적 섭동에 초점을 맞춘 표준 적대적 훈련과 비교하여 보이지 않는 적대적 예시에 대한 향상된 일반화를 이끌어냅니다. 그러나 WDRO는 통계적 오차를 고려하지 않기 때문에 여전히 근본적으로 강건한 과적합 문제를 겪습니다. 본 논문에서는 Wasserstein 거리와 Kullback-Leibler 발산을 통해 적대적 노이즈에 대한 새로운 불확실성 집합 하에서 새로운 강건한 최적화 프레임워크를 제안하여 이러한 간극을 해결합니다. 이를 통계적으로 강건한 WDRO라고 합니다. 새로운 최적화 프레임워크에 대한 강건한 일반화 경계를 설정하여 분포 외 적대적 성능이 높은 확률로 통계적으로 강건한 훈련 손실만큼 적어도 좋다는 것을 의미합니다. 또한 학습자와 적대자 사이에 Stackelberg 및 Nash 균형이 존재하는 조건을 도출하여 특정 의미에서 최적의 강건한 모델을 제공합니다. 마지막으로 광범위한 실험을 통해 본 방법이 WDRO 프레임워크 내에서 강건한 과적합을 크게 완화하고 강건성을 향상시킨다는 것을 보여줍니다.
시사점, 한계점
•
시사점:
◦
WDRO의 강건한 과적합 문제를 완화하는 새로운 통계적으로 강건한 WDRO 프레임워크 제시.