본 논문은 대규모 언어 모델(LLM)이 교육 분야에서 학습 및 교육 효율 증대에 기여할 수 있는지에 대한 연구를 다룬다. 특히, 교육자와 학생들이 LLM을 이용하는 데 필요한 비용 효율성에 초점을 맞춰, 하드웨어 제약 및 개선 기법을 고려하여 LLM이 다지선다형 문제(MCQ)에 어떻게 답하는지를 조사한다. LLaMA-2의 7B, 13B, 70B 버전과 같은 일반적인 사전 훈련된 LLM을 사용하여 프로그래밍 언어 과목의 162개 학부 수준 MCQ에 대한 응답을 분석한다. 본 연구에서는 과정 교재의 일부를 미세 조정 및 양자화(자원 사용 감소)에 사용하는 등의 요인이 응답 정확도에 미치는 영향을 분석하고, 공개적으로 제공하는 MCQ 데이터셋을 활용한다. 결과적으로, 대규모 사전 훈련 모델보다 교재 기반 미세 조정된 소규모 모델이 MCQ에 대한 답변 정확도가 더 높다는 것을 보여주며, LLM을 MCQ에 활용하는 데 필요한 자원과 자료 측면에서의 비용 효율성을 제시한다.