본 논문은 대규모 언어 모델(LLM)의 다중 라운드 추론 기술이 복잡한 문제 해결 성능을 향상시킨다는 최근 인지 과학 및 다중 라운드 추론 기술의 발전에 착안하여, 자동 회귀 LLM에 대한 Chain-of-Thought, 토론, 자기 개선과 같은 접근 방식을 통해 수학적 추론, 상식적 추론 및 다단계 질문 응답과 같은 작업에서 상당한 성공을 거둔 점을 배경으로 합니다. 하지만 다중 라운드 추론이 문제 해결 능력을 향상시키는 이론적 기반은 아직 충분히 탐구되지 않았습니다. 이 연구는 다중 라운드 자동 회귀 모델의 근사, 학습 가능성 및 일반화 특성을 조사합니다. 유한 컨텍스트 창을 가진 트랜스포머가 튜링 계산 가능 함수의 단계에 대한 보편 근사기임을 보이고, 다중 라운드 추론을 통해 임의의 튜링 계산 가능 시퀀스-투-시퀀스 함수를 근사할 수 있음을 보여줍니다. 시퀀스 생성에 PAC 학습을 확장하고, 시퀀스 길이가 모델의 컨텍스트 창을 초과하더라도 다중 라운드 생성이 학습 가능함을 보여줍니다. 마지막으로, 일반화 오류가 라운드 간에 어떻게 전파되는지 조사하고, 앞서 언급한 접근 방식이 이 오류를 제한하여 출력이 예상 경계 내에 유지되도록 하는 방법을 보여줍니다. 이 연구는 다중 라운드 시퀀스 학습 및 추론의 체계적인 이론적 기반을 밝히고, 추론 복잡도에서의 역할을 강조합니다.