본 논문은 식사 장애가 있는 사람들의 삶의 질 향상을 위한 로봇 보조 식사 시스템 개발에 초점을 맞추고 있다. 기존의 시각 정보(색상, 형태, 질감) 기반의 기하학적 정보(바운딩 박스, 자세)만을 이용하는 방법들이 다양한 음식과 상황에 대한 적응성과 강건성이 부족하다는 점을 지적한다. 이를 해결하기 위해, 시각, 물리적, 시간적, 기하학적 정보를 통합하는 새로운 접근 방식인 IMRL(Integrated Multi-Dimensional Representation Learning)을 제안한다. IMRL은 음식의 종류와 물리적 특성(고체, 반고체, 과립형, 액체, 혼합물), 획득 행동의 시간적 역학을 모델링하고, 최적의 뜨는 지점을 결정하고 그릇의 채움 정도를 평가하기 위한 기하학적 정보를 도입한다. 실제 로봇 실험을 통해 다양한 음식과 그릇 구성에 대한 IMRL의 강건성과 적응성, 그리고 미지의 상황에 대한 제로샷 일반화 능력을 입증하며, 최고 성능의 기준 모델에 비해 성공률을 최대 35% 향상시켰다.