본 논문은 수술 성공률 향상을 위해 수술 전 3D 간 모델을 수술 중 2D 영상에 중첩하는 간 영상 정합 방법을 제시한다. 기존 방법의 해부학적 랜드마크 기반 접근 방식의 모호한 정의 및 수술 중 간의 시각 정보 부족 문제를 해결하기 위해, 자기 지도 학습 기반의 랜드마크 없는 3D-3D 정합 프레임워크인 \ourmodel을 제안한다. \ourmodel은 먼저 특징 분리 트랜스포머를 이용하여 강력한 대응 관계를 학습하여 강체 변환을 복구하고, 구조 정규화 변형 네트워크를 통해 수술 전 모델을 수술 중 간 표면에 정렬한다. 또한, 21명의 환자 간 절제 수술 영상을 포함하는 새로운 in-vivo 데이터셋 \emph{P2I-LReg}을 구축하여 성능 검증에 활용하였다. 합성 및 in-vivo 데이터셋에서의 실험과 사용자 연구를 통해 제안 방법의 우수성과 임상 적용 가능성을 입증하였다.