본 연구는 대규모 언어 모델(LLM)의 사회적 편향을 완화하기 위해 모델 병합 기법을 활용하여 7가지 알고리즘(Linear, Karcher Mean, SLERP, NuSLERP, TIES, DELLA, Nearswap)을 비교 평가하였다. GPT, LLaMA, Qwen 계열의 13개 오픈 웨이트 모델에 대해 3개의 편향 데이터셋(BBQ, BOLD, HONEST)과 SuperGLUE 벤치마크를 사용하여 성능을 측정하였다. 편향 감소와 다운스트림 태스크 성능 간의 트레이드오프 관계를 확인하고, SLERP가 적절한 가중치에서 가장 균형 잡힌 선택임을 밝혔다.