LOT Merging은 여러 개의 fine-tuned task-specific expert 모델들을 하나의 통합 모델로 병합하는 기법입니다. 기존의 방법들이 parameter-level 또는 task-loss를 최소화하는 데 집중한 반면, LOT Merging은 모델 병합으로 인해 발생하는 feature drift를 최소화하는 데 초점을 맞춥니다. LOT Merging은 layer-by-layer 방식으로 feature drift를 줄이며, convex quadratic optimization 문제를 통해 linear 및 normalization layer의 파라미터에 대한 closed-form solution을 도출합니다. 실험 결과, LOT Merging은 vision 및 vision-language 벤치마크에서 기존 방법들을 능가하는 성능을 보였습니다.