UTR-STCNet은 가변 길이 5'UTR의 번역 효율 예측을 위한 Transformer 기반 아키텍처입니다. 기존의 고정된 입력 길이와 해석력의 한계를 극복하기 위해, Saliency-Aware Token Clustering (SATC) 모듈을 통합하여 핵산 토큰을 다중 스케일의 의미있는 단위로 집계합니다. Saliency-Guided Transformer (SGT) 블록은 경량화된 어텐션 메커니즘을 사용하여 국소적 및 원거리 조절 의존성을 포착합니다. 세 개의 벤치마크 데이터셋에서 평가된 결과, UTR-STCNet은 번역 효율의 주요 지표인 평균 리보솜 부하(MRL) 예측에서 최첨단 기준 모델들을 능가했습니다. 또한, 상류 AUG 및 Kozak 모티프와 같은 알려진 기능적 요소들을 복구하여 번역 조절에 대한 기전적 통찰력을 제공할 가능성을 보여줍니다.