본 논문은 대규모 언어 모델(LLM)이 분산된 의료 환경에서 겪는 문제점(특정 도메인 지식 통합, 개인정보 보호, 계산 부담 완화, 모델 업데이트 시 재앙적 망각 방지)을 해결하기 위한 연구를 제시한다. Mistral-7B 기반의 두 개의 구조적으로 호환 가능한 의료 LLM에 여섯 가지 파라미터 공간 병합 기법을 적용하여 체계적으로 평가했다. 특히, 어텐션 레이어의 선택적 Optimal Transport(OT) 정렬과 코사인 유사도 가중치 보간법을 결합한 새로운 계층적 방식을 도입하여 순열 변동성을 해결하고 엣지 환경에서 계산 부담을 최소화하고자 했다. Task Arithmetic, Linear Averaging, DARE-TIES, DELLA, Breadcrumbs, 그리고 제안하는 계층적 방식을 다섯 개의 의료 벤치마크에 대해 평가했다. 그 결과, 구조적으로 호환 가능한 모델은 단순 평균 기법에서 상당한 이점을 얻었으며, Task Arithmetic은 MedQA에서 45.80%의 정확도를 달성하여 복잡한 가지치기 기반 접근 방식을 능가했다.