본 논문은 기계 학습 모델의 적대적 공격에 대한 방어 전략으로, 적대적 예시를 정제하는 새로운 방법인 FlowPure를 제안합니다. 기존의 확산 모델 기반 방법과 달리, FlowPure는 조건부 플로우 매칭(CFM)으로 훈련된 연속 정규화 플로우(CNF)를 사용하여 적대적 예시를 깨끗한 예시로 매핑하는 것을 학습합니다. 특정 공격에 대한 지식을 활용하여 알려진 위협에 대한 강건성을 향상시키는 동시에, 그러한 지식이 없는 경우 가우시안 섭동에 대해 훈련된 더 일반적인 확률적 변형을 지원합니다. CIFAR-10 및 CIFAR-100에 대한 실험 결과, FlowPure는 기존의 정제 기반 방어보다 우수한 성능을 보이며, 특히 전처리기-맹검(preprocessor-blind) 시나리오에서 양성 정확도를 완전히 유지하면서 성능을 발휘하는 것을 보여줍니다. 또한, FlowPure는 적대적 공격 탐지에도 강력한 잠재력을 가지고 있으며, 전처리기-맹검 PGD 샘플을 거의 완벽한 정확도로 식별할 수 있음을 보여줍니다.