본 논문은 대규모 언어 모델(LLM)의 강력한 의미 이해 및 프롬프트 유연성을 활용하여 추천 시스템에 LLM을 통합하는 방법을 제시합니다. 기존 연구는 사용자-아이템 상호작용이나 메타데이터를 프롬프트로 인코딩하여 추천을 수행했지만, 본 논문은 사용자 피드백의 암시성과 추론 지도의 부족이라는 문제점을 해결하기 위해 R2Rec이라는 새로운 프레임워크를 제안합니다. R2Rec은 사용자-아이템 그래프에서 상호작용 체인을 샘플링하고, 점진적 마스크 프롬프팅 전략을 통해 구조화된 상호작용 사고(interaction-of-thoughts)로 변환합니다. 각 사고는 상호작용 맥락에 기반한 단계별 추론을 나타내며, LLM이 암시적 패턴에 기반한 단계별 의사결정을 시뮬레이션할 수 있도록 합니다. R2Rec은 고품질 추적 데이터를 이용한 지도 학습 미세 조정과 보상 신호를 통한 강화 학습의 두 단계 학습 파이프라인으로 구성됩니다. 세 개의 실제 데이터셋에 대한 실험 결과, R2Rec은 기존 방법 및 LLM 기반 기준 모델보다 HitRatio@1에서 평균 10.48% 향상, 원래 LLM 대비 131.81% 향상을 보였으며, 명시적인 추론 체인을 통해 의사결정 과정의 해석성을 높였습니다.