본 논문은 객체 지향 내비게이션(ObjNav)을 위한 하이브리드 인지 내비게이션(HyPerNav)을 제안합니다. HyPerNav은 Vision-Language Models(VLMs)의 강점을 활용하여 로봇이 알 수 없는 환경에서 대상 객체로 직접 자율적으로 탐색할 수 있도록 합니다. HyPerNav은 에고센트릭 RGB-D 센서의 국소 정보와 탑다운 맵의 전역 컨텍스트를 결합하여 탐색 효율성을 향상시킵니다. 대규모 시뮬레이션 및 실제 환경 검증을 통해 기존 방법론 대비 우수한 성능을 입증했습니다.