본 논문은 BERT와 RoBERTa와 같은 사전 훈련된 언어 모델(PLM)에서 추출한 텍스트 임베딩을 사용하여 추천 시스템을 향상시키는 방법을 탐구합니다. 기존 추천 시스템은 사용자, 아이템, 사용자-아이템 상호작용의 명시적 특징에만 의존하는 한계를 가지고 있는데, 본 논문에서는 구조화된 데이터를 자연어 표현으로 변환하여 사용자, 아이템, 맥락 간의 심층적인 의미 관계를 포착하는 고차원 임베딩을 생성합니다. 실험 결과, 이 방법은 추천 정확도와 관련성을 크게 향상시켜 더욱 개인화되고 맥락을 고려한 추천을 제공함을 보여줍니다. 이는 PLM이 추천 시스템의 효과를 높이는 데 잠재력이 있음을 강조합니다.