대규모 언어 모델(LLM)에서의 길이 제어는 중요하지만 제대로 다루어지지 않은 과제이며, 음성 인터페이스와 연구 요약 등 다양한 분야에 적용됩니다. 본 논문에서는 모델 재훈련 없이 정확한 길이 제어를 가능하게 하는 프롬프트 엔지니어링 기법을 제시합니다. 구조 기반 접근 방식을 통해 프롬프트 내에서 계획 및 단어 수 계산 메커니즘을 구현하여 모델이 지정된 길이 제약 조건을 준수하도록 유도합니다. 6개의 최첨단 LLM에 대한 광범위한 평가를 통해 제안된 방법이 문서 요약 작업에서 표준 프롬프트에 비해 길이 충실도를 크게 향상시키는 것을 보여줍니다. 특히 짧거나 중간 길이 제약 조건에서 효과적입니다. 또한, 제안된 기법은 다양한 모델 아키텍처에서 다양한 이점을 보이며, 일부 모델에서는 길이 준수도가 최대 37.6% 향상되었습니다. 품질 평가 결과, 제안된 접근 방식은 표준 프롬프트 기법에 비해 전반적인 출력 품질을 유지하거나 향상시킵니다. 이 방법은 모델 재훈련이 비실용적이거나 비용이 많이 드는 프로덕션 환경에서 특히 유용하며, 정확한 길이 제어가 필요한 애플리케이션에 즉시 적용할 수 있는 솔루션을 제공합니다.