본 논문은 임의의 지시어를 사용하여 3D 객체에 대한 "행동 가능성" 영역을 예측하는 개방형 어휘 3D 객체 적합성 접지(Open-Vocabulary 3D Object Affordance Grounding) 문제를 다룹니다. 기존 방법들은 3D 기하학과 상호작용을 묘사하는 이미지나 언어를 결합하여 외부 상호작용 사전 정보를 도입하는 데 집중하지만, 암시적인 불변 기하학과 잠재적인 상호작용 의도를 활용하지 못하여 제한된 의미 공간에 취약합니다. 본 논문에서는 객체의 불변 기하학적 속성을 활용하고 잠재적인 상호작용 시나리오에서 유추적 추론을 수행하여 적합성 지식을 형성하는 새로운 프레임워크인 GREAT (GeometRy-intEntion collAboraTive inference)를 제안합니다. GREAT는 기하학적 정보와 시각적 내용을 모두 결합하여 3D 객체 적합성을 접지합니다. 또한, 본 논문에서는 이 작업을 지원하기 위해 현재까지 가장 큰 3D 객체 적합성 데이터셋인 Point Image Affordance Dataset v2 (PIADv2)를 소개합니다. 광범위한 실험을 통해 GREAT의 효과와 우수성을 입증합니다. 코드와 데이터셋은 https://yawen-shao.github.io/GREAT/ 에서 이용 가능합니다.