본 논문은 심층 강화 학습(RL) 모델이 환경 관측치 또는 작업 요구사항의 작은 변화에도 일반화에 실패하는 문제를 해결하기 위해, 서로 다른 시각 및 작업 변형에 대해 훈련된 상이한 에이전트 간의 잠재 공간 매핑을 위한 제로샷 방법을 제안합니다. 특히, 추가적인 미세 조정 없이 한 에이전트의 인코더에서 다른 에이전트의 인코더로 임베딩을 매핑하는 변환을 학습합니다. 이 방법은 의미적으로 정렬된 소량의 "앵커" 관측치를 사용하여 어파인 또는 직교 변환을 추정합니다. 변환이 발견되면, 하나의 도메인에 대해 훈련된 기존 제어기는 추가 훈련 없이 제로샷 방식으로 다른(기존) 인코더의 임베딩을 해석할 수 있습니다. 실험적으로 시각 및 작업 도메인 변화 하에서 높은 성능을 유지함을 보여주며, 배경과 작업이 변경되는 CarRacing 환경에서 제로샷 조합 성능을 실험적으로 입증합니다. 기존 정책의 모듈식 재조합을 허용하여 역동적으로 변화하는 환경에서 더욱 강력하고 구성적인 RL을 위한 길을 열어줍니다.