본 논문은 GPT-4, Gemini, Claude 3, Grok 등 대규모 언어 모델(LLM)의 급부상으로 인해 발생하는 새로운 보안 취약성에 대한 종합적인 개요를 제공합니다. 프롬프트 삽입 및 탈옥, 적대적 공격(입력 섭동 및 데이터 포이즈닝 포함), 악의적 행위자의 악용(가짜 정보, 피싱, 악성 코드 생성 등), 자율적인 LLM 에이전트에 내재된 위험(목표 불일치, 떠오르는 기만, 자기 보존 본능, 은밀하고 불일치된 목표를 개발하고 추구할 가능성(계획)) 등으로 위협을 분류합니다. 2022년부터 2025년까지의 최근 학계 및 산업 연구를 요약하고, 제안된 방어 및 그 한계를 분석하며, LLM 기반 애플리케이션을 보호하는 데 있어 열린 과제를 확인합니다. 강력하고 다층적인 보안 전략의 중요성을 강조하며 결론을 맺습니다.