본 논문은 설명 가능한 추천 시스템에 대규모 언어 모델(LLM)을 통합할 때 발생하는 성능-효율성 간의 상충 관계를 해결하기 위해 Prism이라는 새로운 분리형 프레임워크를 제안합니다. Prism은 추천 과정을 순위 결정 단계와 설명 생성 단계로 분리하며, 지식 증류 방식을 활용하여 강력한 교사 LLM(예: FLAN-T5-XXL)이 고품질 설명을 생성하고, 이를 소형화된 학생 모델(예: BART-Base)인 Prism이 개인화된 설명으로 종합합니다. 실험 결과는 Prism이 교사에 비해 사람 평가에서 충실도와 개인화 측면에서 우수한 성능을 보이며, 추론 속도는 24배, 메모리 사용량은 10배 감소함을 보여줍니다.