본 논문은 대규모 언어 모델(LLM)의 출력에서 구문적 및 의미적 정확성을 보장하는 통합 접근 방식인 $\texttt{SEM-CTRL}$을 제시합니다. $\texttt{SEM-CTRL}$은 컨텍스트에 민감한 제약 조건과 작업 및 인스턴스별 의미를 LLM 디코더에 직접 적용합니다. 특정 구문 및 의미 제약 조건에 따라 안내되는 토큰 수준의 MCTS(몬테카를로 트리 탐색)를 통합하고, 원하는 출력에 대한 제약 조건은 컨텍스트에 민감한 문법을 일반화하고 배경 지식을 통합하여 작업별 의미를 나타내는 논리 기반 형식인 Answer Set Grammars를 사용하여 표현합니다. 미세 조정 없이도 기존의 모든 LLM에 대해 정확한 완성을 보장하며, 합성 문법 합성, 조합 추론, 계획 등 다양한 작업에 대해 평가하여 소규모 사전 훈련된 LLM이 더 큰 변형 및 최첨단 추론 모델(예: o1-preview)을 효율적으로 능가하면서 동시에 솔루션 정확성을 보장함을 보여줍니다.