본 논문은 오프라인 강화 학습에서 상태 분포 이동 문제를 해결하기 위한 새로운 방법인 Density-Aware Safety Perception (DASP)을 제안합니다. DASP는 에이전트가 데이터 밀도가 높은 결과로 이끄는 행동을 우선시하여 분포 내(안전한) 영역 내에서 또는 분포 내 영역으로 복귀하는 동작을 촉진합니다. 이를 위해 의사결정의 잠재적 결과와 그 밀도를 동시에 고려하는 변분 프레임워크 내에서 목적 함수를 최적화하여 안전한 의사결정을 위한 중요한 상황 정보를 제공합니다. MuJoCo와 AntMaze offline 환경에서의 광범위한 실험을 통해 제안된 방법의 효과와 실현 가능성을 검증했습니다.