본 논문은 대규모 언어 모델(LLM)을 추천 시스템에 적용하여 성능 향상을 이끌어내는 새로운 프레임워크인 HyperLLM을 제안한다. 기존 유클리드 공간 기반 방법의 한계를 극복하기 위해, 계층적 정보를 효과적으로 포착하는 데 유리한 쌍곡 공간을 활용한다. HyperLLM은 LLM을 이용하여 아이템에 대한 다계층 분류 태그를 생성하고, 대조 학습을 통해 태그-아이템 및 사용자-아이템 상호작용을 학습하여 계층적 구조 정보를 효과적으로 활용한다. 또한, 의미적 임베딩에서 계층적 정보를 추출하는 메타 최적화 전략을 도입하여 의미 공간과 협업 필터링 공간 간의 간극을 해소한다. 실험 결과, HyperLLM은 기존 방법들보다 40% 이상 성능 향상을 보였으며, 학습 안정성도 향상시켰다.