본 논문에서는 혼잡한 환경에서 접촉을 포함하는 로봇 모션 플래닝을 위한 새로운 프레임워크인 IMPACT를 제안합니다. IMPACT는 Vision-Language Model (VLM)을 사용하여 환경의 의미를 추론하고, 객체의 속성과 위치에 따라 접촉에 대한 허용치를 식별합니다. VLM의 출력을 이용하여 접촉 허용치를 인코딩하는 3차원 밀집 비용 지도를 생성하고, 표준 모션 플래너와 통합합니다. 20개의 시뮬레이션 환경과 10개의 실제 환경에서 실험을 수행하여 작업 성공률, 객체 변위, 그리고 사람 평가자의 피드백을 통해 성능을 평가했습니다. 3620회의 시뮬레이션과 200회의 실제 실험 결과, IMPACT는 기존 방법들보다 우수한 성능을 보이며 혼잡한 환경에서 효율적인 접촉 기반 모션 플래닝을 가능하게 함을 보여줍니다.