본 논문은 대규모 언어 모델(LLM)의 제로샷 학습을 이용한 장문 스타일 전이 과제를 해결하기 위해 문장 수준의 스타일 적응과 단락 수준의 구조적 일관성을 결합한 계층적 프레임워크인 ZeroStylus를 제안합니다. ZeroStylus는 참조 텍스트로부터 계층적 템플릿을 획득하고 다중 입자 매칭을 통해 템플릿 기반 생성을 수행하는 두 단계로 구성됩니다. 문장과 단락 템플릿 저장소를 동적으로 구축하여 문장 간 논리적 관계를 유지하면서 맥락 인식 변환을 가능하게 합니다. 실험 결과, 제안된 방법이 기존 방법보다 스타일 일관성, 내용 보존, 표현 품질을 평가하는 삼축 척도에서 평균 6.90점으로 직접 프롬프팅 방식(6.70점)보다 향상된 성능을 보였습니다. 이는 병렬 말뭉치나 LLM 미세 조정 없이 일관성 있는 장문 스타일 전이를 위한 새로운 기능을 확립합니다.