본 논문은 객체 지향 내비게이션(ObjNav)을 위한 하이브리드 인지 내비게이션(HyPerNav)을 제안합니다. HyPerNav은 Vision-Language Models(VLMs)의 강점을 활용하여 로봇이 알 수 없는 환경에서 대상 객체로 직접 자율적으로 이동할 수 있도록 합니다. HyPerNav은 RGB-D 센서의 자아 중심적 관찰과 실시간 상향식 맵을 모두 활용하여 지역적 및 전역적 정보를 결합하여 인식 능력을 향상시킵니다. 대규모 시뮬레이션 및 실제 환경 검증에서 기존 방법론 대비 뛰어난 성능을 보였습니다.