대규모 언어 모델(LLM)은 다양한 분야에서 널리 사용되고 있지만, 프롬프트 주입 공격에 취약하여 보안 위험이 크다. 기존 방어 전략에도 불구하고, 특히 적응적 적대적 시나리오에서 방어 전략의 효과를 엄격하게 평가하는 표준화된 프레임워크가 부족하다. 본 논문에서는 적응형 테스트 프레임워크를 사용하여 다양한 데이터셋에서 프롬프트 주입 공격과 방어를 체계적으로 벤치마킹하는 최적화 기반 평가 툴킷인 OET를 제시한다. OET는 적대적 문자열 생성, 동적 공격 실행, 포괄적인 결과 분석을 위한 모듈식 워크플로우를 제공하여 적대적 강건성을 평가하기 위한 통합 플랫폼을 제공한다. 적응형 테스트 프레임워크는 화이트박스 및 블랙박스 접근 방식 모두를 사용하는 최적화 방법을 활용하여 최악의 적대적 예시를 생성하여 엄격한 레드팀 평가를 가능하게 한다. 광범위한 실험은 현재 방어 메커니즘의 한계를 강조하며, 일부 모델은 보안 강화 후에도 여전히 취약함을 보여준다.