본 논문은 온라인 가짜뉴스의 수정된 형태에 대한 사실 확인 시스템의 취약성을 다룬다. 연구진은 6가지 유형의 실제 가짜뉴스 수정 방식을 분류하고, 이를 모방하는 변형 생성 프레임워크를 제안한다. 실험 결과, 기존 임베딩 모델은 사용자에 의한 수정된 주장에 취약하지만, LLM 기반 임베딩 모델은 향상된 견고성을 보이는 것으로 나타났다. 추가적인 재순위 지정(reranker) 기법이 도움이 되지만, 완벽한 해결책은 아니다. 본 연구는 훈련 및 추론 단계에서의 완화 기법을 제시하여 도메인 내 견고성을 최대 17%, 도메인 외 일반화 성능을 10% 향상시켰다.