본 논문은 Text-to-Image(T2I) 모델의 안전 필터 우회 공격에 대한 새로운 방법인 Reason2Attack(R2A)를 제안합니다. 기존의 jailbreaking 공격은 LLM의 T2I 모델 및 안전 필터에 대한 이해 부족으로 인해 많은 쿼리가 필요했지만, R2A는 LLM의 추론 능력을 향상시켜 효율적인 공격을 가능하게 합니다. R2A는 Frame Semantics 기반의 CoT(Chain of Thought) 예시 생성 파이프라인을 통해 관련 용어와 맥락 그림을 식별하여 적대적 프롬프트를 생성하고, 이를 이용하여 LLM을 미세 조정합니다. 또한, 강화 학습을 통해 프롬프트 길이, 은밀성, 효과성을 고려한 공격 프로세스 보상을 설계하여 추론 정확도를 높입니다. 다양한 T2I 모델에 대한 실험 결과, R2A는 기존 방법보다 적은 쿼리로 더 높은 공격 성공률을 달성하며, 생성된 적대적 프롬프트는 오픈소스 및 상용 T2I 모델 모두에서 높은 전이성을 보입니다.