본 논문은 단일 소스 도메인 일반화에서 데이터 증강 기법의 성능 변동 문제를 다룹니다. 기존 데이터 증강 기반 방법들의 표적 도메인에서의 성능이 훈련 중 변동하는 현상을 분석하고, 이는 다양한 증강 데이터로부터 학습된 지식을 모델이 축적하지 못하고 특징 왜곡이 심화되기 때문이라고 주장합니다. 이에 따라, 프록시 모델을 이용하여 증강 데이터를 학습하고, 주 모델의 파라미터를 프록시 모델과 평균하여 지식을 점진적으로 축적하는 새로운 일반화 방법인 PEER(Parameter-Space Ensemble with Entropy Regularization)을 제안합니다. 두 모델의 출력 표현 간 상호 정보량을 극대화하여 훈련 중 특징 왜곡을 완화합니다. 실험 결과, PEER은 다양한 데이터셋(PACS, Digits, Office-Home, VLCS)에서 OOD 성능 변동을 줄이고 일반화 성능을 향상시키며, 단순한 랜덤 증강만으로도 기존의 복잡한 증강 전략을 사용하는 방법들을 능가하는 최첨단 성능을 달성함을 보여줍니다.