본 논문은 대규모 언어 모델(LLM)의 출력에서 구문적 및 의미적 정확성을 보장하는 새로운 방법인 SEM-CTRL을 제시합니다. SEM-CTRL은 컨텍스트에 민감한 제약 조건과 작업 및 인스턴스별 의미를 LLM 디코더에 직접 적용하는 통합 접근 방식입니다. Answer Set Grammars(ASG)를 사용하여 원하는 출력에 대한 제약 조건을 표현하며, 토큰 수준의 MCTS를 통합하여 이러한 제약 조건을 안내합니다. 미세 조정 없이도 기존의 LLM에 대해 정확한 완성을 보장하며, 합성 문법 생성, 조합 추론, 계획 등 다양한 작업에서 평가를 통해 소규모 사전 훈련된 LLM이 더 큰 LLM 및 최첨단 추론 모델보다 효율적으로 우수한 성능을 보이며 동시에 해결책의 정확성을 보장함을 보여줍니다.