Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

GraspClutter6D: A Large-scale Real-world Dataset for Robust Perception and Grasping in Cluttered Scenes

Created by
  • Haebom

저자

Seunghyeok Back, Joosoon Lee, Kangmin Kim, Heeseon Rho, Geonhyup Lee, Raeyoung Kang, Sangbeom Lee, Sangjun Noh, Youngjin Lee, Taeyeop Lee, Kyoobin Lee

개요

GraspClutter6D는 복잡한 환경에서의 로봇 그립핑 문제를 해결하기 위해 제작된 대규모 실세계 그립핑 데이터셋입니다. 기존 데이터셋의 단순한 장면과 부족한 다양성을 극복하고자, 1,000개의 고밀도 장면(장면당 평균 14.1개의 물체, 62.6%의 폐색), 200개의 물체, 75가지 환경 구성(상자, 선반, 테이블)을 포함하며, 4대의 RGB-D 카메라를 사용하여 다양한 시점에서 촬영되었습니다. 736K개의 6D 물체 자세 및 52K개의 RGB-D 이미지에 대한 9.3B개의 가능한 로봇 그립핑 정보를 포함하는 풍부한 주석이 제공됩니다. 기존 최첨단 분할, 물체 자세 추정 및 그립핑 검출 방법들을 벤치마킹하여 복잡한 환경에서의 과제에 대한 주요 통찰력을 제공하며, GraspClutter6D로 훈련된 그립핑 네트워크가 기존 데이터셋으로 훈련된 네트워크보다 시뮬레이션 및 실제 실험 모두에서 성능이 훨씬 뛰어남을 보여줍니다. 데이터셋, 툴킷 및 주석 도구는 공개적으로 제공됩니다.

시사점, 한계점

시사점:
기존 데이터셋의 한계를 극복하는 대규모 실세계 복잡 환경 그립핑 데이터셋 제공
다양한 물체, 환경, 시점을 포함하여 실제 환경에 대한 높은 일반화 성능 가능
6D 물체 자세 및 다수의 가능한 그립핑 정보 제공으로 정확하고 다양한 그립핑 모델 학습 가능
GraspClutter6D 기반 학습 모델의 우수한 성능 검증
한계점:
데이터셋의 크기가 크지만, 실세계의 모든 복잡한 상황을 완벽히 반영하지 못할 수 있음.
특정 유형의 물체나 환경에 편향되어 있을 가능성 존재.
데이터 수집 및 주석 작업의 어려움으로 인해 완벽한 주석이 어려울 수 있음.
👍