본 논문은 대규모 언어 모델(LLM)의 도메인 특화 적응을 위한 임시 지시 미세 조정에서 도메인 특화 지도 학습(SFT)의 효율성과 교차 도메인 일반화의 어려움 및 잡음이 많은 훈련 데이터 문제를 해결하기 위해 경량 모델 내재적 데이터 가지치기 방법인 DONOD를 제안합니다. DONOD는 모델 파라미터 기반 지표인 Delta of Norm (DON)과 Norm of Delta (NOD)를 사용하여 데이터를 평가하고, TOPSIS 알고리즘을 통해 잡음이 많고 학습이 불가능하며 일반화를 저해하는 샘플을 효과적으로 필터링합니다. 수학적 과제에 대한 실험 결과, DONOD에 의해 선택된 데이터는 향상된 미세 조정 효율성과 잡음에 대한 강건성을 달성하며, 데이터셋의 70%를 제거했음에도 불구하고 목표 도메인 정확도는 14.90%, 교차 도메인 정확도는 5.67% 향상되었습니다. 또한, 소규모 모델(예: Llama 3.1-8B)에 의해 가지치기된 데이터는 대규모 모델(예: Llama 2-13B)에서도 효과적으로 일반화됩니다. 기존 방법과 비교하여 DONOD는 데이터셋에 독립적이며 우수하거나 동등한 성능을 보입니다. 코드는 공개될 예정입니다.