Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Optimizing Navigation And Chemical Application in Precision Agriculture With Deep Reinforcement Learning And Conditional Action Tree

Created by
  • Haebom
Category
Empty

저자

Mahsa Khosravi (Department of Industrial and Manufacturing Systems Engineering, Iowa State University, Ames, Iowa, USA), Zhanhong Jiang (Department of Mechanical Engineering, Iowa State University, Ames, Iowa, USA), Joshua R Waite (Department of Mechanical Engineering, Iowa State University, Ames, Iowa, USA), Sarah Jonesc (Department of Agronomy, Iowa State University, Ames, Iowa, USA), Hernan Torres (Department of Agronomy, Iowa State University, Ames, Iowa, USA), Arti Singh (Department of Agronomy, Iowa State University, Ames, Iowa, USA), Baskar Ganapathysubramanian (Department of Mechanical Engineering, Iowa State University, Ames, Iowa, USA), Asheesh Kumar Singh (Department of Agronomy, Iowa State University, Ames, Iowa, USA), Soumik Sarkar (Department of Mechanical Engineering, Iowa State University, Ames, Iowa, USA)

개요

본 논문은 정밀 농업에서 생물적 스트레스의 최적화된 로봇 관리를 위한 새로운 강화 학습(RL) 기반 계획 체계를 제시합니다. 이 프레임워크는 조건부 행동 마스킹을 사용하는 계층적 의사결정 구조를 채택하여 상위 수준의 행동은 로봇의 탐색을 지시하고 하위 수준의 행동은 영향을 받는 지역에서의 탐색 및 효율적인 화학적 살포를 최적화합니다. 최적화의 주요 목표는 제한된 배터리 전력으로 감염된 지역의 적용 범위를 개선하고 화학 물질 사용을 줄여 필드의 건강한 지역에 대한 불필요한 살포를 방지하는 것입니다. 수치적 실험 결과는 제안된 방법인 계층적 행동 마스킹 근접 정책 최적화(HAM-PPO)가 잔디깎이 탐색 + 무차별 살포(카펫 살포)와 같은 기준 관행보다 수확량 회복 및 자원 효율성 측면에서 상당히 우수함을 보여줍니다. HAM-PPO는 다양한 감염 시나리오에서 일관되게 더 높은 수확량 회복률과 더 낮은 화학 비용을 달성합니다. 이 프레임워크는 관측 노이즈에 대한 강건성과 다양한 환경 조건에서의 일반화 능력을 보여주며, 다양한 감염 범위와 공간 분포 패턴에 적응합니다.

시사점, 한계점

시사점:
제한된 배터리와 화학 물질을 사용하여 생물적 스트레스를 효율적으로 관리하는 로봇 제어를 위한 새로운 강화학습 기반 프레임워크 제시.
HAM-PPO 알고리즘을 통해 기존 방법 대비 높은 수확량 회복률과 낮은 화학 물질 사용량 달성.
다양한 감염 시나리오 및 환경 조건에 대한 강건성과 일반화 능력 확인.
한계점:
실제 농업 환경에서의 실험 결과가 제시되지 않음.
다양한 작물과 해충에 대한 일반화 가능성에 대한 추가 연구 필요.
알고리즘의 계산 복잡도 및 실시간 처리 성능에 대한 평가 필요.
👍