본 논문은 대규모 언어 모델(LLM)의 디코딩 전략 개선에 초점을 맞춰, 특히 Locally Typical Sampling (LTS) 알고리즘을 향상시키는 연구에 대해 다룹니다. 기존의 top-k나 nucleus sampling과 같은 디코딩 방법들은 유창성, 다양성, 일관성을 동시에 확보하는 데 어려움을 겪습니다. 이러한 문제를 해결하기 위해, 본 논문에서는 동적 엔트로피 임계값 설정, 다목적 점수 매기기, 보상-패널티 조정을 통합한 Adaptive Semantic-Aware Typicality Sampling (ASTS) 알고리즘을 제안합니다. ASTS는 문맥적으로 일관되고 다양한 텍스트 생성을 보장하면서 계산 효율성을 유지합니다. 스토리 생성 및 추상적 요약 등 여러 벤치마크에서 perplexity, MAUVE, 다양성 점수 등의 지표를 사용하여 성능을 평가하였으며, 실험 결과 ASTS가 기존 샘플링 기법보다 반복을 줄이고 의미적 정합성을 높이며 유창성을 향상시키는 것으로 나타났습니다.