본 논문은 머신 러닝에서 노이즈가 있는 레이블로 학습하는 문제를 강화 학습(RL) 문제로 접근하는 새로운 프레임워크를 제시합니다. 제안된 방법인 RLNLC(Reinforcement Learning for Noisy Label Correction)는 데이터와 레이블을 포괄하는 상태 공간, 가능한 레이블 수정을 나타내는 행동 공간, 그리고 레이블 수정의 효과를 평가하는 보상 메커니즘을 정의합니다. RLNLC는 액터-크리틱 방법을 활용하여 강화 학습을 통해 딥 피처 표현 기반 정책 네트워크를 학습하여 레이블 수정을 수행합니다. 학습된 정책은 반복적으로 노이즈가 있는 훈련 레이블을 수정하고 예측 모델의 훈련을 용이하게 합니다. RLNLC의 효과는 여러 벤치마크 데이터셋에 대한 광범위한 실험을 통해 입증되었으며, 노이즈가 있는 레이블로 학습하는 기존의 최첨단 기술보다 일관되게 뛰어난 성능을 보입니다.