본 논문은 기존 대규모 언어 모델(LLM)의 언어 능력 평가 연구가 어휘 학습, 형태소 규칙 유도, 통사적 일반화, 담화 추론, 언어 간 전이에 초점을 맞춰왔다는 점을 지적합니다. 하지만 인간 언어 획득의 핵심 요소인 패턴 인식과 상호 작용적 피드백을 통한 언어 습득 능력은 평가하지 않았다는 점을 문제 삼습니다. 따라서 연구진은 새롭게 고안된 언어(Tinkatongue)를 사용하여 LLM 에이전트가 Tinkatongue만 이해하는 봇과의 대화를 통해 언어를 습득하고 사용하는 능력을 평가하는 새로운 실험적 프레임워크를 제안합니다. 실험 결과, LLM 에이전트는 100회의 응답 안에 대화를 성공적으로 구축하지 못했지만, 인간의 언어 학습 방식을 반영하는 독특한 전략을 채택하는 것을 발견했습니다. 이러한 결과는 새로운 평가 벤치마크의 방향을 제시하고, 상호 작용적 피드백으로부터 더 효과적으로 학습하는 모델 설계를 위한 새로운 가능성을 열어줍니다.