본 논문은 대규모 언어 모델(LLM)을 이용한 백만 단어 분량 장편소설 창작에 필요한 인간이 작성한 개요의 최적 길이를 탐구한다. 기존 연구들이 주로 짧은 소설에 초점을 맞춘 것과 달리, 본 연구는 LLMZip과 LLM2Vec과 같은 최신 텍스트 압축 방법의 통찰을 바탕으로 정보 이론적 분석을 통해 LLM이 초장편 소설을 압축 및 재구성할 때 발생하는 왜곡을 정량화한다. 계층적 2단계 생성 파이프라인(개요 -> 상세 개요 -> 원고)을 제시하고, 정보 보존과 인간의 노력 사이의 균형을 맞추는 최적의 개요 길이를 찾는다. 중국 소설을 대상으로 한 광범위한 실험을 통해 2단계 계층적 개요 접근 방식이 단일 단계 방법보다 의미적 왜곡을 크게 줄인다는 것을 보여준다. 이 연구 결과는 LLM과 협력하여 백만 단어 분량의 소설을 창작하는 작가와 연구자들에게 경험적으로 근거한 지침을 제공한다.