본 논문은 대규모 언어 모델(LLM)의 미니배치 크기를 늘려 훈련 속도를 개선하고 성능을 향상시키는 방법을 제안합니다. 대규모 미니배치 사용은 GPU 메모리 요구량 증가로 인해 LLM 훈련에 어려움을 초래하는데, 본 논문에서는 큰 미니배치의 기울기와 유사한 작은 미니배치 코어셋을 찾는 기존 접근 방식의 한계를 지적합니다. 특히, 언어 데이터의 불균형, Adam 최적화 알고리즘 사용, 그리고 매우 큰 기울기 차원 등이 문제점으로 지적됩니다. 이를 해결하기 위해, CoLM(Coresets for Training LLMs)이라는 새로운 방법을 제안합니다. CoLM은 작은 소스의 모든 예제를 포함하고, 기울기를 지수적으로 정규화하며, 0차 방법을 활용하여 기울기의 매끄러운 근사값을 구하고 스파스화하는 기법을 사용합니다. 실험 결과, CoLM은 Phi-2, Phi-3, Zephyr, Llama-3 모델의 미세 조정에서 메모리 요구량을 2배 줄이고, 4배 큰 미니배치로 훈련하는 것보다 나은 성능을 보였으며, LoRA와 같은 기존의 메모리 효율적인 훈련 방법과도 원활하게 통합됩니다.