본 논문은 대규모 언어 모델(LLM) 학습에서 샘플 순서의 중요성을 강조하며, 기존의 재학습 기반 접근 방식의 계산 비용 문제를 해결하기 위해 재학습이 필요 없는 새로운 프레임워크를 제시합니다. 이 프레임워크는 Adam 옵티마이저 업데이트를 테일러 전개와 랜덤 투영 기법을 이용하여 근사함으로써 임의의 샘플 순서에 대한 모델 파라미터를 효율적으로 추정합니다. 이를 통해 LLM의 교육 과정 설계(curriculum learning) 및 기억 및 일반화 효과 분석에 적용하여 새로운 교육 과정 전략을 제안하고, 샘플 위치가 모델의 기억 및 일반화 능력에 미치는 영향을 분석합니다. 광범위한 실험을 통해 제안된 프레임워크의 효과성을 검증하고, LLM 교육 과정 최적화 및 기억/일반화 효과 분석에 대한 잠재력을 보여줍니다.