본 논문은 대규모 언어 모델(LLM)의 사회적 지능을 평가하기 위해 인간의 Theory-of-Mind(ToM) 과제를 활용하는 최근 연구 동향을 비판적으로 검토한다. 기존의 ToM 과제 자체의 이론적, 방법론적, 평가적 한계점들을 지적하고, 이러한 한계점들이 LLM 평가에 적용될 때 더욱 심화되는 문제점을 제시한다. 인간-컴퓨터 상호작용(HCI) 관점에서, LLM과의 상호작용에서 사용자의 선호도, 필요, 경험을 고려하는 보다 역동적이고 상호작용적인 ToM 정의 및 평가 기준을 재고할 것을 제안하며, 이러한 방향으로 나아가는 데 있어 잠재적 기회와 과제를 제시한다.