본 논문은 대규모 언어 모델(LLM)의 지속적인 발전으로 인해 발생하는 도메인 특화 작업을 위한 미세 조정의 어려움을 해결하기 위한 훈련 없는 프레임워크인 PortLLM을 제시합니다. PortLLM은 경량의 모델 업데이트 패치를 생성하여 도메인 특정 지식을 포착하고, 이를 통해 진화하는 LLM에 대한 지속적인 개인화를 최소 비용으로 가능하게 합니다. BoolQ, SST2, WinoGrande, GSM8K 등 다양한 데이터셋과 Mistral-7B, Llama2, Llama3.1, Gemma2 등의 모델을 사용한 실험을 통해 모델 패치의 이식성과 프레임워크의 효과를 검증했습니다. PortLLM은 LoRA 미세 조정과 비슷한 성능을 달성하면서 최대 12.2배의 GPU 메모리 사용량 감소를 보였습니다. 또한, 모델 업데이트 패치의 이식성에 대한 이론적 근거를 제시하여 LLM 개인화의 이론적 측면에 대한 새로운 통찰력을 제공합니다.