본 논문은 대규모 언어 모델(LLMs)의 오래된 정보 업데이트를 위한 경량 접근 방식인 지식 편집(KE)에 초점을 맞추고 있습니다. 기존 KE 접근 방식은 단순 사실적 질문에 대한 모델 지식 업데이트에는 성공적이지만, 다단계 질문 응답(MQA)과 같이 구성적 추론이 필요한 작업에는 어려움을 겪습니다. 본 논문에서는 MQA를 위한 의미 분석 기반 지식 편집기인 CHECK를 제안합니다. CHECK는 컴파일러와 LLM을 이용한 추론 간의 유추에 기반하여, 소스 코드를 실행 전에 컴파일하는 것과 유사하게 추론 과정을 의미적으로 분석한 후 실행합니다. 의미적 오류가 있는 추론 과정은 논리 최적화 및 LLM 모델의 재프롬프팅을 통해 일관성을 유지하도록 수정됩니다. 네 개의 데이터셋에서 다섯 개의 최첨단 프레임워크와 비교 평가한 결과, MQA 정확도가 평균 22.8% 향상되었습니다.