본 논문은 자연어 기반 평가(NLA)를 활용하여 대규모 언어 모델(LLM)이 인간 평가자를 위한 지시어(can-do descriptors)를 해석하고 적용하는 능력을 평가하는 연구이다. 공개된 S&I 말뭉치를 사용하여 오픈소스 LLM인 Qwen 2.5 72B를 제로샷 설정에서 평가하였으며, 텍스트 정보만을 사용하여 경쟁력 있는 성능을 달성했다는 것을 보여준다. 세부적으로는, 과제에 특화하여 미세조정된 최첨단 음성 LLM에는 미치지 못하지만, 해당 과제를 위해 특별히 훈련된 BERT 기반 모델보다 우수한 성능을 보였다. 특히, 불일치하는 과제 설정에서 효과적이며, 다른 데이터 유형과 언어로 일반화가 가능하고, 명확하게 설명 가능하고 광범위하게 적용 가능한 언어 기술자를 기반으로 하여 해석력이 높다는 장점을 제시한다.