본 논문은 대규모 언어 모델(LLM)의 강건성(robustness)에 대한 종합적인 조사를 제공한다. LLM의 강건성 개념, 다양한 입력에 대한 일관된 성능의 중요성, 실제 응용에서의 오류 모드의 영향을 체계적으로 검토한다. 비강건성의 원인을 모델의 내재적 한계, 데이터 기반 취약성, 신뢰성을 저해하는 외부의 적대적 요소로 분류하여 분석한다. 최신 완화 전략을 검토하고, 널리 채택된 벤치마크, 새로운 지표, 실제 세계의 신뢰성 평가에서의 지속적인 격차를 논의한다. 마지막으로, 기존 조사와 학제 간 연구의 결과를 종합하여 동향, 미해결 과제 및 미래 연구 방향을 제시한다.