본 논문은 언어 모델 출력의 불확실성을 정량화하는 문제를 해결하기 위해, 완화된 가정 하에서 통계적으로 일관된 새로운 의미적 불확실성 척도인 의미적 스펙트럼 엔트로피를 제안한다. 이 척도는 사전 훈련된 표준 언어 모델만을 사용하는 간단한 알고리즘을 통해 구현되며, 내부 생성 과정에 대한 접근 권한이 필요 없다. 본 접근 방식은 언어 모델 선택에 대한 제약이 최소화되어 다양한 아키텍처와 설정에 광범위하게 적용될 수 있다. 광범위한 시뮬레이션 연구를 통해 제안된 방법이 생성 언어 모델 출력의 고유한 임의성이 존재하는 경우에도 의미적 불확실성에 대한 정확하고 견고한 추정치를 제공함을 보여준다.