본 논문은 대규모 언어 모델(LLM)의 자연어 이해 및 생성 능력 발전에 따른 다양한 응용 분야의 확장을 조명하고, LLM이 프롬프트 인젝션 및 탈옥 공격과 같은 취약성을 지니고 있음을 분석한다. 공격 접근 방식을 프롬프트 기반, 모델 기반, 멀티모달, 다국어 방식으로 분류하고, 방어 메커니즘을 평가하며, LLM 안전성 및 견고성 평가를 위한 지표와 벤치마크를 논의한다. 또한, 연구 격차를 파악하고, 복원력 있는 정렬 전략, 진화하는 공격에 대한 방어, 탈옥 탐지 자동화, 윤리적 및 사회적 영향에 대한 고려 등 향후 연구 방향을 제시하며, LLM 보안 강화 및 안전한 배포를 위한 지속적인 연구 및 협력의 필요성을 강조한다.