본 논문은 사전 훈련된 대규모 모델에서 선택적 개념 제거를 위한 기계적 학습 제거 방법에 대해 연구합니다. 특히, 유클리드 공간이 아닌 쌍곡 공간에서 이미지와 텍스트를 임베딩하여 의미적 계층 구조를 더 잘 포착하는 MERU 모델에 Alignment Calibration을 적용하여 쌍곡 공간에서의 기계적 학습 제거를 조사합니다. 실험과 ablation study를 통해 쌍곡 기하학이 특히 여러 개념 제거를 확장할 때, 유지된 개념에 대한 성능을 유지하면서 거의 완벽한 망각을 달성하는 등 개념 제거에 고유한 이점을 제공함을 보여줍니다. 쌍곡 공간의 특성을 활용하는 entailment calibration 및 norm regularization 등 쌍곡 공간 특화 구성 요소를 도입합니다. 유클리드 모델과의 비교 분석을 통해 쌍곡 학습 제거는 의미적 계층 구조를 재구성하는 반면, 유클리드 접근 방식은 단순히 교차 모달 연관성을 분리한다는 근본적인 차이점을 보여줍니다. 이러한 결과는 기계적 학습 제거 기술을 발전시킬 뿐만 아니라 다중 모달 모델에서 개념 표현 및 제거에 영향을 미치는 기하학적 특성에 대한 통찰력을 제공합니다.