본 논문은 대규모 언어 모델(LLM)의 파인튜닝을 통해 특정 과제 성능을 향상시킬 수 있지만, 파인튜닝된 모델이 무엇을 학습하고 잊었는지, 그리고 예측을 어떻게 신뢰할 수 있는지에 대한 일반적인 이해는 여전히 부족하다는 문제를 제기합니다. 연구진은 계산 효율적인 저차원 적응 앙상블을 사용하여 사후 확률 근사를 통해 파인튜닝된 LLM에 대한 원칙적인 불확실성 정량화를 도출했습니다. Mistral-7b 기반의 저차원 적응 앙상블을 사용하여 세 가지 일반적인 객관식 데이터 세트를 분석하고, 파인튜닝 중 및 후에 유지된 사전 지식과 도메인 특정 적응 간의 균형과 인식된 복잡성에 대한 정량적 및 정성적 결론을 도출했습니다. 과적합 영역에서 파인튜닝 중에 획득된 지식의 예상치 못한 유지를 확인했습니다.