본 논문은 로봇이 환경과 직접 상호작용할 수 있도록 기능적 상호작용 요소의 위치와 사용 방법을 식별하는 3D 장면 그래프 표현을 개발하는 것을 목표로 합니다. 기존의 객체 수준 해상도 대신, 기능적 의미를 지닌 부분에 초점을 맞춰 더욱 세밀한 해상도로 객체를 탐지하고 저장하는 데 중점을 둡니다. 데이터 부족 및 로봇 센서를 사용한 상세한 객체 특징 포착의 어려움을 해결하기 위해, 기존 3D 리소스를 활용하여 2D 데이터를 생성하고 탐지기를 학습시켜 표준 3D 장면 그래프 생성 파이프라인을 향상시킵니다. 실험 결과, 본 논문의 접근 방식이 최첨단 3D 모델과 비교할 만한 기능적 요소 분할 성능을 달성하고, 기존 솔루션보다 높은 정확도로 작업 중심의 기능적 의미 연결을 가능하게 함을 보여줍니다.