본 논문은 대규모 언어 모델(LLM)의 의사결정 과정을 이해하기 어려운 "블랙박스" 문제를 해결하기 위해 새로운 설명 가능성 기법인 SMILE을 제안한다. SMILE은 모델에 독립적이며, 입력을 약간 변경하여 출력 변화를 측정하고, 출력에 가장 큰 영향을 미친 단어를 강조함으로써 LLM의 응답 과정을 설명한다. 단순한 시각적 히트맵을 생성하여 프롬프트의 어떤 부분이 가장 중요한지 보여주며, 정확성, 일관성, 안정성, 충실도 등의 지표를 통해 SMILE의 신뢰성을 검증한다. 이는 AI의 투명성과 신뢰성 향상에 기여할 것으로 기대된다.