단일 카메라 이미지로부터 두 손의 재구성은 복잡하고 역동적인 손 자세와 가림으로 인해 상호 작용 정렬을 달성하는 데 어려움을 겪는다. 기존 방법들은 이러한 정렬 문제로 인해 잘못된 정렬과 관통 아티팩트가 발생한다. 본 논문에서는 기초 모델 기반 2D 사전 정보와 확산 기반 상호 작용 개선을 시너지 효과적으로 통합하여 손 자세와 상호 작용을 정확하게 정렬하려는 새로운 프레임워크를 제안한다. 먼저, 훈련 중에 기초 모델의 다중 모드 사전 정보(키포인트, 분할 맵, 깊이 신호)를 정렬하는 Fusion Alignment Encoder를 도입하여 강력한 구조적 안내를 제공하고, 테스트 시 기초 모델 없이도 높은 재구성 정확도를 유지하면서 효율적인 추론을 가능하게 한다. 둘째, 관통된 자세를 사실적이고 관통되지 않은 상호 작용으로 변환하도록 명시적으로 훈련된 두 손 확산 모델을 사용하여 기울기 기반 잡음 제거를 활용하여 아티팩트를 수정하고 현실적인 공간 관계를 보장한다. 광범위한 평가는 제안된 방법이 InterHand2.6M, FreiHAND 및 HIC 데이터셋에서 최첨단 성능을 달성하여 가림 처리 및 상호 작용 강건성을 크게 향상시킨다는 것을 보여준다.