본 논문은 그래프 기반 협업 필터링(CF) 모델의 한계점인 콜드 스타트 문제와 데이터 부족 문제를 해결하기 위해 대규모 언어 모델(LLM)을 활용하는 새로운 방법을 제시합니다. 기존의 LLM 기반 추천 시스템은 계산 비용이 높고 복잡한 사용자-아이템 관계를 효과적으로 모델링하는 데 어려움을 겪는 반면, 본 논문에서는 LLM을 CF 모델 초기화에 활용하는 새로운 관점을 제시합니다. 특히, 대규모 임베딩 차원에서 발생하는 임베딩 붕괴 문제를 발견하고, 이를 해결하기 위해 무작위, 균일, 분산 기반 색인 샘플링을 활용한 선택적 초기화 전략을 제안합니다. 실제 데이터셋을 이용한 실험 결과, 다양한 CF 모델에서 성능 향상을 보이며 기존 LLM 기반 추천 접근 방식보다 계산 비용이 낮음을 확인했습니다.