본 논문은 Transformer 기반 대규모 언어 모델(LLM)의 능력 한계, 특히 환각(hallucination) 현상과 에이전트적 활용에 대한 연구를 수행한다. LLM이 특정 주제에 대해 허위, 사실과 다른, 또는 무의미한 정보를 제공하는 환각 현상과, 자율적 또는 반자율적으로 다양한 작업을 수행하는 에이전트로서의 LLM 활용에 대한 관심이 증가하고 있다. 따라서 LLM이 수행 가능한 작업의 종류를 이해하는 것이 중요해졌다. 본 연구는 LLM 추론의 계산 복잡도 관점에서 이 문제를 탐구한다. LLM이 특정 복잡도를 넘어서는 계산 및 에이전트 작업을 수행할 수 없으며, 특정 복잡도를 넘어서는 작업의 정확성을 검증할 수 없음을 보인다. 구체적인 예시를 제시하고, 이 연구의 결과에 따른 몇 가지 함의를 논의한다.