본 논문은 대규모 언어 모델(LLM) 기반 감정 분석에서 발생하는 모델 변동성 문제(MVP)를 체계적으로 탐구한다. MVP는 확률적 추론 메커니즘, 프롬프트 민감도, 훈련 데이터의 편향으로 인해 발생하는 불일치 감정 분류, 양극화, 불확실성을 특징으로 한다. 논문에서는 MVP의 근본 원인을 분석하고, 예시와 사례 연구를 통해 그 영향을 강조한다. 또한, 주요 과제와 완화 전략을 조사하며, 특히 온도가 출력 무작위성을 유발하는 요인으로서의 역할과 설명 가능성이 투명성과 사용자 신뢰 향상에 중요한 역할을 한다는 점을 강조한다. 안정성, 재현성, 신뢰성에 대한 구조적인 관점을 제공하여 더욱 신뢰할 수 있고, 설명 가능하며, 강력한 감정 분석 모델을 개발하고, 금융, 의료, 정책 결정 등 고위험 분야에 배포하는 데 기여한다.