본 논문은 텍스트 분류를 위한 머신러닝 모델 훈련 과정에서 인간의 어노테이터에 의존하는 데이터 수집의 어려움과 비용 문제를 해결하기 위해, 대규모 언어 모델(LLM)을 활용하여 분류기 예측의 정확성을 검증하는 여러 가지 접근 방식을 제안합니다. 기존의 인간 어노테이터 기반 데이터 수집 방식은 전문가 확보의 어려움과 생산성의 한계로 인해 많은 자원과 시간을 필요로 하며, 특히 모델 재훈련이 필요한 증분 학습 파이프라인에서는 데이터 드리프트 문제로 인해 지속적인 데이터 수집이 필수적이고 비용이 많이 듭니다. 따라서 본 논문은 LLM을 활용하여 모델의 품질을 보장하고 고품질의 증분 학습을 지원하는 방안을 제시합니다.