Prompt injection 공격은 대규모 언어 모델(LLM)의 보안에 심각한 위협을 가합니다. 본 논문에서는 추론 시 컴퓨팅 자원을 더 할당하여 LLM의 성능을 향상시키는 새로운 패러다임인 '추론 시간 스케일링'을 기반으로 하는 프롬프트 주입 공격 방어 기법인 SecInfer를 제안합니다. SecInfer는 시스템 프롬프트 가이드 샘플링(다양한 시스템 프롬프트를 통해 다양한 추론 경로를 탐색하여 주어진 입력에 대한 여러 응답을 생성)과 대상 작업 가이드 집계(의도된 작업을 가장 잘 수행할 가능성이 있는 응답을 선택)의 두 단계로 구성됩니다. 실험 결과, SecInfer는 추론 시간에 추가 컴퓨팅을 활용하여 기존 및 적응형 프롬프트 주입 공격을 효과적으로 완화하며, 최첨단 방어 기법과 기존 추론 시간 스케일링 접근 방식을 능가합니다.