본 논문은 개인 맞춤형 AI 에이전트를 가능하게 하는 개인 소유의 온디바이스 데이터를 사용한 대규모 언어 모델(LLM)의 파인튜닝에 초점을 맞추고 있습니다. 자원 제약이 있는 에지 디바이스에서 LLM을 파인튜닝하는 것은 과도한 계산 오버헤드, 디바이스 이질성, 데이터 불균형 등의 어려움에 직면합니다. 이를 해결하기 위해, 본 논문에서는 SplitFrozen이라는 분할 학습 프레임워크를 제안합니다. SplitFrozen은 디바이스 측 모델 레이어를 전략적으로 동결하고 서버에서 매개변수 효율적인 파인튜닝을 중앙 집중화함으로써 효율적인 LLM 파인튜닝을 가능하게 합니다. 이 프레임워크는 LLM을 디바이스 측 동결 레이어와 서버 측 파인튜닝 레이어로 분할하여 이질적인 자원 제약 디바이스에서 순전파만 실행하도록 합니다. 서버 측 훈련 비용을 최소화하기 위해 저랭크 적응(LoRA)을 서버 측 레이어에 통합하고, 파이프라인 병렬 전략을 통해 디바이스-서버 계산을 분리하고 분해된 역전파를 활용하여 훈련 효율을 더욱 최적화합니다. MRPC, MNLI-matched, SST-2 데이터셋을 사용한 GPT-2 실험 결과, SplitFrozen은 극도로 불균형한 데이터에서 FedLoRA 및 SplitLoRA보다 모델 정확도가 69.4% 향상되었고, 디바이스 측 계산량은 최대 86.8%, 총 훈련 시간은 50.2% 감소했습니다. 또한 GSM8K 데이터셋을 사용한 Llama-3.2 모델을 이용한 콘텐츠 생성 작업에서 SplitFrozen의 확장성을 검증했습니다.