본 논문은 명시적인 오류 처리 지침 없이 사전적 오류 처리를 수행하는 방법이라는 과제를 제기한다. 현존하는 대규모 언어 모델(LLM)의 오류 처리는 대부분 명시적인 지침에 의존하는 수동적인 방식이지만, 실제 상황에서는 이러한 지침이 없는 경우가 많기 때문이다. 이를 해결하기 위해, 본 논문은 네 가지 평가 과제, 오류 범주 분류 체계, 그리고 새로운 평가 데이터셋으로 구성된 새로운 벤치마크인 "Mis-prompt"를 제안한다. 또한, 기존 LLM들의 Mis-prompt 벤치마크 성능을 분석하고, 오류 처리 인스턴스에 대한 SFT(Supervised Fine-Tuning)가 LLM의 사전적 오류 처리 능력을 향상시킨다는 것을 실험적으로 보여준다. 해당 데이터셋은 공개될 예정이다.