Vision-Language-Action (VLA) 모델의 복잡한 추론 및 장기적인 작업 계획 능력 부족 문제를 해결하기 위해, 작업 설명과 환경 입력을 로봇 조작 동작으로 종단간(end-to-end) 변환하는 에이전트 기반 아키텍처인 ManiAgent를 제안한다. 이 아키텍처는 환경 인식, 하위 작업 분해 및 동작 생성을 위해 에이전트 간 통신을 활용하여 복잡한 조작 시나리오를 효율적으로 처리한다. SimplerEnv 벤치마크에서 86.8%의 성공률, 실제 픽앤플레이스 작업에서 95.8%의 성공률을 달성했으며, 인간이 주석을 단 데이터셋으로 훈련된 모델과 유사한 성능을 보이는 VLA 모델을 위한 효율적인 데이터 수집을 가능하게 한다.