본 논문은 온라인 가짜뉴스의 수정된 형태에 대한 사실 확인 시스템의 취약성을 다룬다. 연구진은 6가지 유형의 가짜뉴스 수정 방식을 분류하고, 이를 모방하여 변형된 주장을 생성하는 섭동 프레임워크를 제시한다. 실험 결과, 기존 임베딩 모델은 사용자에 의한 수정된 주장에 취약하지만, LLM 기반 임베딩 모델은 더 강건함을 보인다. 하지만 재순위 지정(reranker)만으로는 문제를 완전히 해결할 수 없다는 것을 밝히고, 훈련 및 추론 단계에서의 완화 기법을 제시하여 도메인 내 강건성을 최대 17%, 도메인 외 일반화 성능을 10% 향상시켰다.