본 논문은 대규모 언어 모델(LLM)의 In-Context Learning(ICL)에서 나타나는 시스템 편향으로 인한 불안정한 분류 성능 문제를 해결하기 위해 Supervised Calibration(SC) 프레임워크를 제안합니다. 기존의 보정 기법들이 주로 LLM의 의사결정 경계를 이동시키는 데 그치는 한계를 극복하고자, SC는 로짓 공간에서 클래스별 최적의 어파인 변환을 학습하여 의사결정 경계의 방향을 변경하거나 역전시키는 기능을 제공합니다. SC는 기존 방법들을 특수한 경우로 포함하며, context-invariance와 directional trust-region이라는 두 가지 정규화 기법을 통합하여 ICL의 불안정성 문제를 해결하고 보정 정도를 제어합니다. 실험 결과, SC는 다양한 LLM과 데이터셋에서 기존 보정 방법들보다 우수한 성능을 보였습니다.