본 연구는 대규모 언어 모델(LLM)의 프롬프트 주입 공격에 대한 저항성을 평가하기 위한 통일된 프레임워크를 제안합니다. 이 프레임워크는 회복력 저하 지수(RDI), 안전 준수 계수(SCC), 지침 무결성 지표(IIM)의 세 가지 보완적 지표를 사용하여 견고성, 안전성, 의미론적 안정성을 측정합니다. GPT-4, GPT-4o, LLaMA-3 8B Instruct, Flan-T5-Large의 4가지 모델을 질문 응답, 요약, 번역, 추론, 코드 생성 등 5가지 언어 작업에 대해 평가했습니다.