CodingTeachLLM은 교육 환경에서 코딩 교육을 위한 대규모 언어 모델(LLM)입니다. 기존의 fine-tuning 방식보다 우수한 성능을 보이는 end-to-end prior-based 3단계 supervised fine-tuned 모델을 제안합니다. 이 모델은 교육 지식의 구조적 분해 및 점진적 유도 출력을 실현합니다. 세 가지 유형의 데이터 분류를 강화하기 위해 샘플러와 중복 추정 신경망을 사용하고, 전처리된 데이터셋을 세 단계로 나누어 LORA fine-tuning을 수행합니다. 시스템 프롬프트, 벡터 데이터베이스, 추상 구문 트리 태스크 분할을 결합한 prior 모듈을 설계하고, prior 기반 fine-tuned 모델에 압축 방법과 규제 제약을 적용하며, 출력 단계에서 텍스트 필터링을 통해 점진적 유도 결과를 얻습니다. 풍부한 교육 지식, 단계별 점진적 유도 출력, 답변 비공개 기능을 갖춘 튜터 역할을 구현하는 최초의 연구입니다. HumanEval (@pass 1) 벤치마크에서 75.10%의 성능을 달성했으며, MMLU, C-Eval, AGIEval 대화 평가 벤치마크에서도 우수한 성능을 보입니다.