본 연구는 대규모 언어 모델(LLM)이 프로그램의 귀납적 루프 불변식을 추론하고 수정하는 데 얼마나 효과적인지를 경험적으로 평가한다. 다양한 크기의 오픈 소스 및 클로즈 소스 LLM을 사용하여 루프 불변식 추론 및 수정 능력을 조사했다. 연구 결과, LLM은 루프 불변식 추론에 어느 정도 유용성을 보이지만, 도메인 지식 및 예시와 같은 보조 정보가 제공될 때 성능이 크게 향상된다는 것을 확인했다. 최대 78%의 성공률로 불변식을 생성하지만, 불변식 수정은 16%로 제한적인 성능을 보였다.