본 논문은 대규모 언어 모델(LLM)의 유해하고 비윤리적인 콘텐츠 생성 경향을 해결하기 위해, 모델의 가치 정렬을 측정하는 새로운 방법인 GETA를 제안합니다. 기존의 정적 벤치마크가 가지는 평가 시효 효과(evaluation chronoeffect) 문제를 해결하기 위해, GETA는 모델의 능력에 맞춰 동적으로 테스트 항목을 생성하는 적응형 테스트 방법을 기반으로 합니다. GETA는 항목 난이도와 모델의 가치 부합도의 결합 분포를 학습하며 LLM과 함께 진화하여, 지속적으로 발전하는 LLM을 효과적으로 평가합니다. 다양한 LLM을 GETA로 평가하여, GETA가 난이도에 맞는 테스트 항목을 동적으로 생성하고, 미지의 OOD 및 i.i.d. 항목에 대한 모델 성능과 더 일관된 평가 결과를 제공함을 보여줍니다.