본 논문은 과학 문제 해결에 있어 대규모 언어 모델(LLM)의 환각 문제를 해결하기 위한 새로운 미세 조정 방법인 Adapting While Learning (AWL)을 제안합니다. AWL은 World Knowledge Learning (WKL)과 Tool Usage Adaptation (TUA) 두 가지 구성 요소로 이루어져 있습니다. WKL은 도구 생성 솔루션을 통해 LLM이 과학적 지식을 내재화하고, TUA는 모델의 정확도에 따라 문제를 쉬운 문제와 어려운 문제로 분류하여 쉬운 문제는 직접 추론을 유지하고 어려운 문제는 도구를 사용하도록 학습시킵니다. 6개의 과학 벤치마크 데이터셋을 통해 AWL의 효과를 검증한 결과, 기존 지시 모델(8B)에 비해 답변 정확도는 29.11% 향상, 도구 사용 정확도는 12.72% 향상되었으며, GPT-4o 및 Claude-3.5를 포함한 최첨단 모델을 4개의 사용자 정의 데이터셋에서 능가하는 성능을 보였습니다. 소스 코드는 공개되어 있습니다.