최적화 및 제약 프로그래밍 분야의 목표는 자연어로 문제를 설명하고 자동으로 실행 가능하고 효율적인 모델을 생성하는 것이다. 대규모 언어 모델(LLM)이 이 비전을 현실에 더 가깝게 만들었지만, 훈련 데이터 오염으로 인한 것일 수 있다는 가설을 검증하기 위해, CSPLib 문제를 구조는 유지하되 문맥을 변경하고 오해의 소지가 있는 요소를 도입하여 체계적으로 재구성하고 변형했다. 세 개의 대표적인 LLM이 원본 및 수정된 설명에 대해 생성한 모델을 비교 분석한 결과, LLM은 문법적으로 유효하고 의미적으로 타당한 모델을 생성할 수 있지만, 문맥 및 언어적 변화에 따라 성능이 급격히 저하되어 얕은 이해와 단어 선택에 대한 민감성을 보였다.