본 논문은 대규모 언어 모델(LLM)을 기반으로 소설을 각색하는 새로운 프레임워크인 Reader-Rewriter (R²)를 제안합니다. 소설을 각색하는 과정에서 발생할 수 있는 LLM의 환각(hallucination) 문제와 인과관계를 고려한 플롯 추출의 어려움을 해결하기 위해, 환각을 감지하고 제거하는 HAR(hallucination-aware refinement) 방법과 인과관계를 기반으로 플롯을 구성하는 CPC(causal plot-graph construction) 방법을 제시합니다. R²는 소설을 읽고 플롯 그래프를 생성하는 Reader 모듈과 그래프를 기반으로 각색본을 생성하는 Rewriter 모듈로 구성되며, 두 모듈 모두 HAR을 통합하여 LLM의 정확도를 높입니다. 실험 결과, R²는 기존 세 가지 방법보다 상당히 높은 성능을 보였습니다.