본 논문은 대규모 언어 모델(LLM)의 입력 변화에 대한 불일치성(inconsistency)을 성능 향상에 활용하는 새로운 방법인 "Variator" 에이전트를 제시합니다. Variator는 주어진 작업에 대해 k개의 변형된 입력을 생성하고 각각에 대해 하나의 솔루션을 제출합니다. 이 방법은 작업에 독립적이고 자유 형식 입력과 호환되어 다양한 분야에 적용 가능합니다. 논문에서는 확률적 모델을 사용하여 이론적 효과를 입증하고, APPS 데이터셋에서 기준 모델보다 우수한 성능을 실험적으로 보여줍니다. 또한, 코딩 및 사이버 보안 분야의 최첨단 추론 모델에서도 불일치성이 지속됨을 보여줌으로써, 제시된 방법이 미래 모델에도 적용될 가능성을 시사합니다.