단일 RGB 이미지로부터 3D 손 메시를 재구성하는 것은 복잡한 관절, 자기폐색, 깊이 모호성으로 인해 어려운 과제입니다. 2D 이미지에서 단일 3D 메시로의 결정적 매핑을 학습하는 기존의 판별적 방법들은 2D-to-3D 매핑의 고유한 모호성으로 어려움을 겪습니다. 이러한 문제를 해결하기 위해 본 논문에서는 모호한 2D-to-3D 매핑 과정의 확률적 분포를 학습하고 샘플링하여 타당한 3D 손 메시를 합성하는 새로운 생성적 마스크 모델인 MaskHand를 제안합니다. MaskHand는 두 가지 주요 구성 요소로 구성됩니다. (1) 잠재 공간에서 3D 손 관절을 이산 자세 토큰으로 인코딩하는 VQ-MANO, (2) 자세 토큰을 무작위로 마스킹하고 손상된 토큰 시퀀스, 이미지 컨텍스트 및 2D 자세 큐를 조건으로 그들의 결합 분포를 학습하는 Context-Guided Masked Transformer입니다. 이 학습된 분포는 추론 중 신뢰도 기반 샘플링을 용이하게 하여 불확실성이 낮고 정밀도가 높은 메시 재구성을 생성합니다. 벤치마크 및 실제 데이터 세트에 대한 광범위한 평가는 MaskHand가 3D 손 메시 재구성에서 최첨단 정확도, 강건성 및 사실성을 달성함을 보여줍니다.