본 논문은 시각적 환경에서 목표 조건 강화 학습(GCRL)의 어려움을 해결하기 위해 DRAG(Distributionally Robust Auto-Encoding for GCRL)를 제안합니다. GCRL 에이전트는 다양한 행동을 자율적으로 습득하지만, 고차원적이고 의미론적으로 희소한 시각적 관측치로 인해 어려움을 겪습니다. 기존의 오토인코더 기반 접근 방식은 에이전트가 자주 방문하는 제한된 상태 집합을 과대표하는 잠재 공간으로 수렴될 수 있습니다. 본 논문에서는 잠재 공간의 분포를 전체 상태 공간에 대한 균일 분포로 점진적으로 이동시켜 환경에서 학습할 수 있는 기술의 완전한 범위를 보장하는 방법을 제안합니다. DRAG는 β-VAE 프레임워크와 분포적으로 강건한 최적화를 결합하여 VAE의 훈련 상태에 대한 적대적 신경 가중기를 활용하여 현재 데이터 분포와 환경의 보이지 않는 부분 간의 불일치를 고려합니다. 이를 통해 에이전트는 직접적인 경험을 넘어 의미론적으로 의미 있는 잠재 공간을 구성할 수 있습니다. 본 논문의 방법은 미로 및 벽을 우회하는 로봇 제어와 같은 어려운 탐험 환경에서 사전 훈련이나 사전 환경 지식 없이 상태 공간 범위와 제어 성능을 향상시킵니다.