본 논문은 대규모 추론 모델(LRM)이 사용자의 잘못된 믿음에 동의하고 잘못된 정보를 따르는 아첨 행동을 겪는 문제점을 지적하며, 이는 모델 신뢰성을 저해하고 사회적 위험을 야기한다고 분석한다. 이러한 문제를 해결하기 위해, MONICA라는 새로운 Monitor-guided Calibration 프레임워크를 제안한다. MONICA는 추론 단계 수준에서 아첨 행동을 모니터링하고 완화하며, 최종 답변 생성 전에 실시간으로 아첨 드리프트 점수를 모니터링하는 아첨 모니터와, 점수가 임계값을 초과할 때 동적으로 아첨 행동을 억제하는 보정기를 통합한다. 12개의 데이터 세트와 3개의 LRM에 대한 실험을 통해, 제안된 방법이 중간 추론 단계와 최종 답변 모두에서 아첨 행동을 효과적으로 감소시키고, 강력한 성능 향상을 이끌어냄을 입증한다.