본 논문은 대규모 언어 모델(LLM)이 텔레비전 극본을 생성하는 데 있어, 창의적인 내러티브 구성과 형식 준수라는 두 가지 상반된 능력을 동시에 수행하는 데 어려움을 겪는다는 점을 지적합니다. 이를 해결하기 위해, 창의적인 내러티브 생성과 형식 변환을 분리하는 이중 단계 정제(Dual-Stage Refinement, DSR) 프레임워크를 제안합니다. DSR은 개요를 소설 스타일의 텍스트로 변환하는 첫 번째 단계와, 이를 전문적으로 형식화된 극본으로 다듬는 두 번째 단계로 구성됩니다. 또한, 부족한 훈련 데이터를 해결하기 위해 하이브리드 데이터 합성을 활용합니다. 전문 극작가들의 블라인드 평가 결과, DSR은 Gemini-2.5-Pro와 같은 강력한 기반 모델 대비 75%의 승률을 기록했으며, 인간 수준의 82.7%의 성능을 달성했습니다.