본 논문은 사전 훈련된 여러 모델을 추가 학습 없이 단일 모델로 결합하는 모델 병합(model merging) 기법에 대한 연구이다. 특히, 무임 승차자(free-rider)가 모델 병합을 통해 특화된 기능을 저렴하게 활용하는 것을 억제하는 방법론을 제시한다. 기존의 워터마킹이나 지문 인식과 같은 방법은 병합 사실을 사후적으로만 감지하는 반면, 본 논문에서는 모델 병합에 대한 최초의 사전 방어 기법을 제안한다. 제안된 방어 기법은 다른 모델과 병합될 경우 모델 기능이 저하되도록 모델 파라미터를 수정하지만, 병합되지 않은 경우에는 기능이 유지되도록 한다. MLP 파라미터 재배열과 어텐션 헤드 스케일링이라는 두 모듈로 구성되며, 이를 통해 파라미터 공간에서 공유 분포(shared basin) 밖으로 모델을 이동시켜 다른 모델과의 병합 성능을 크게 저하시킨다. 이미지 분류, 이미지 생성, 텍스트 분류에 대한 광범위한 실험을 통해 제안된 방어 기법이 모델 기능을 유지하면서 병합을 심각하게 방해함을 보여준다. 또한 잠재적인 적응적 공격을 분석하고, 제안된 기법의 강건성을 향상시키기 위한 dropout 기반 가지치기 방법을 추가적으로 제안한다.