본 논문은 AI 기반 데이터 처리 시스템(DPS)에서 대규모 언어 모델(LLM)의 신뢰성 문제를 해결하기 위해 새로운 선언적 추상화 개념인 의미적 무결성 제약(SIC)을 제안한다. 기존의 LLM 제약 접근 방식의 한계를 극복하고자, SIC는 관계형 모델에 자연스럽게 통합되어 사용자가 일반적인 제약 조건(예: 근거 및 타당성)을 명시할 수 있도록 한다. 논문에서는 SIC의 핵심 설계, 쿼리 실행으로의 공식 통합, 그리고 생성된 출력의 사실적 일관성을 보장하는 핵심 SIC 클래스인 근거 제약에 대한 설명을 제공한다. 또한, 효율성과 신뢰성을 최적화하기 위해 사전적(제약된 디코딩) 및 반응적(검증 및 복구) 기술을 결합한 새로운 적용 메커니즘을 탐구한다. 결론적으로, 이 연구는 신뢰할 수 있고 고성능인 AI 기반 데이터 처리를 위한 기초 프레임워크로서 SIC를 확립하고, 제약 기반 최적화, 적응형 적용 및 엔터프라이즈급 배포에 대한 미래 연구의 길을 열어준다.