본 논문은 대규모 언어 모델(LLM)의 추론 능력 향상을 위한 새로운 접근법인 CodeI/O를 제안합니다. 기존 연구가 수학이나 코드 생성과 같은 특정 추론 기술 향상에 집중한 것과 달리, CodeI/O는 다양한 추론 패턴을 함축적으로 포함하는 코드를 코드 입력-출력 예측 형식으로 변환하여 추론 능력을 향상시킵니다. 자연어로 된 Chain-of-Thought(CoT) 추론을 통해 모델이 코드와 테스트 케이스를 기반으로 입력/출력을 예측하도록 함으로써, 논리 흐름 계획, 상태 공간 탐색, 의사 결정 트리 탐색, 모듈 분해와 같은 보편적인 추론 기본 원리를 학습시킵니다. 이는 코드 특정 구문으로부터 구조화된 추론을 분리하고 절차적 엄격성을 유지하면서 이루어집니다. 실험 결과, CodeI/O는 기호, 과학, 논리, 수학 및 수치, 상식 추론 작업 전반에 걸쳐 일관된 성능 향상을 보였습니다. 기존 정답과의 일치 여부 또는 예측된 입력을 사용한 코드 재실행을 통해 각 예측을 검증하고, 다중 턴 수정을 통해 CoT를 개선하여 CodeI/O++를 개발, 더 높은 성능을 달성했습니다. 데이터와 모델은 GitHub에서 공개됩니다.