본 논문은 ChatGPT와 같은 대규모 언어 모델(LLM)이 자연어 처리 분야에 혁신을 가져왔지만, 동시에 새로운 보안 취약성을 야기한다는 점을 다룹니다. 프롬프트 주입 및 탈옥, 적대적 공격(입력 섭동 및 데이터 포이즈닝 포함), 악의적인 행위자에 의한 잘못된 사용(가짜 정보, 피싱 이메일, 악성 코드 생성 등), 그리고 자율적인 LLM 에이전트에 내재된 위험(목표 불일치, 떠오르는 기만, 자기 보존 본능, 은밀하고 불일치된 목표를 개발하고 추구하는 '계획' 행위 포함) 등 여러 주요 영역으로 위협을 분류하고, 2022년부터 2025년까지의 최근 학술 및 산업 연구들을 요약하여 각 위협을 예시로 제시합니다. 또한 제안된 방어 및 그 한계를 분석하고, LLM 기반 애플리케이션 보안의 미해결 과제를 확인하며, 강력하고 다층적인 보안 전략의 중요성을 강조합니다.