본 연구는 대규모 언어 모델(LLM)이 사용자-아이템 상호작용 데이터를 기반으로 한 협업 정보를 얼마나 잘 이해하고 활용하는지 분석합니다. 기존 행렬 분해(MF) 모델과의 성능 비교를 통해 LLM의 협업 정보 추론 능력을 진단하고, 검색 증강 생성(RAG)과 다양한 프롬프팅 전략을 활용하여 LLM의 추론 능력을 향상시키는 방법을 제안합니다. 제안된 방법은 명확하고 이해하기 쉬운 형식으로 관련 정보를 제공하고 LLM이 이를 바탕으로 추론하도록 유도할 때, MF 모델보다 우수한 성능을 보이며, 제공되는 정보의 양이 많을수록 성능이 향상되는 경향을 보입니다.