본 논문은 과적합 문제를 해결하기 위해 새로운 데이터 증강 기법인 Relevance-driven Input Dropout (RelDrop)을 제안합니다. RelDrop은 기존의 무작위적인 occlusion 기법과 달리, 모델의 예측에 가장 큰 영향을 미치는 입력 영역을 선택적으로 가리고, 모델이 다른 중요한 특징을 활용하도록 유도하여 일반화 성능을 향상시킵니다. 실험 결과, RelDrop은 occlusion에 대한 강건성을 높이고, 관심 영역 내에서 더 많은 특징을 활용하며, 추론 시간 일반화 성능을 향상시키는 것을 보여줍니다.