본 논문은 의료 진단, 금융 분석, 고객 지원, 로봇 공학, 자율 주행 등 다양한 실제 응용 분야에서 널리 배포되고 있는 대규모 언어 모델(LLM)과 LLM 기반 에이전트의 보안 및 신뢰성 위험을 체계적으로 분석한다. LLM 및 LLM 기반 에이전트를 표적으로 하는 적대적 공격을 훈련 단계 공격, 추론 단계 공격, 가용성 및 무결성 공격의 세 단계로 분류하고, 각 단계에 대한 대표적인 공격 방법과 방어 방법을 분석한다. 널리 배포된 LLM 기반 응용 프로그램에 내재된 위험에 대한 경각심을 높이고, 진화하는 위협에 대한 강력한 완화 전략의 시급한 필요성을 강조한다.