대규모 언어 모델(LLM)의 자기 수정 능력, 즉 self-consistency 또는 self-reflection 메커니즘을 두 가지 패러다임(개방형 텍스트 생성 및 다중 선택형 응답 선택)으로 나누어 체계적으로 조사. 다양한 규모와 종류의 언어 모델을 활용하여 자연어 이해 및 추론 작업을 비교 분석하며, 두 패러다임 간의 성능 변화와 오류 수정 방식의 차이점을 밝힘. 개방형 생성은 재해석 및 구성적 개선의 유연성으로 이점을 얻는 반면, 다중 선택형 선택은 명확한 솔루션 경계를 활용하지만 제공된 선택지에 의해 제한될 수 있음을 확인함.