Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

UI-S1: Advancing GUI Automation via Semi-online Reinforcement Learning

Created by
  • Haebom

저자

Zhengxi Lu, Jiabo Ye, Fei Tang, Yongliang Shen, Haiyang Xu, Ziwei Zheng, Weiming Lu, Ming Yan, Fei Huang, Jun Xiao, Yueting Zhuang

개요

본 논문은 강화학습을 통해 복잡한 사용자 인터페이스 상호작용을 자동화하는 GUI 에이전트 연구에 대한 것이다. 기존의 오프라인 강화학습은 안정적인 훈련을 가능하게 하지만, 다단계 작업 실행에 필요한 보상 신호가 부족하고, 온라인 강화학습은 이러한 신호를 포착하지만 희소 보상과 높은 배포 비용의 문제점을 가진다. 이를 해결하기 위해, 본 논문은 오프라인 경로 상에서 온라인 강화학습을 시뮬레이션하는 새로운 패러다임인 Semi-online Reinforcement Learning을 제시한다. 각 롤아웃 과정에서 다중 턴 대화 내 원래 모델 출력을 보존하고, Patch Module을 사용하여 롤아웃과 전문가 경로 간의 차이를 적응적으로 복구한다. 장기적인 훈련 신호를 포착하기 위해 할인된 미래 수익을 보상 계산에 도입하고 가중된 단계 수준 및 에피소드 수준 이점을 사용하여 정책을 최적화한다. 또한 실제 온라인 성능과 더 잘 일치하는 지표인 Semi-Online Performance (SOP)를 도입하여 실제 환경 평가를 위한 실용적이고 효과적인 대리 지표로 사용한다. 실험 결과, 제안된 Semi-online RL은 4개의 동적 벤치마크에서 7B 모델 중 최고 성능을 달성했으며, 기본 모델보다 상당한 성능 향상을 보였다 (예: AndroidWorld에서 +12.0%, AITW에서 +23.8%). 이는 오프라인 훈련 효율성과 온라인 다중 턴 추론 간의 격차를 줄이는 데 상당한 진전을 보여준다. 코드는 https://github.com/X-PLUG/MobileAgent/tree/main/UI-S1 에서 확인 가능하다.

시사점, 한계점

시사점:
오프라인 강화학습의 안정성과 온라인 강화학습의 다단계 작업 실행 능력을 결합한 Semi-online Reinforcement Learning 제안
Patch Module을 통한 롤아웃과 전문가 경로 간 차이 적응적 복구 및 할인된 미래 수익을 통한 장기적 훈련 신호 포착
실제 온라인 성능과 잘 일치하는 Semi-Online Performance (SOP) 지표 제시
다양한 벤치마크에서 기존 모델 대비 성능 향상을 통한 실질적인 효용성 증명
한계점:
제안된 방법의 일반화 성능에 대한 추가적인 검증 필요
다양한 크기의 모델에 대한 성능 평가 및 비교 분석 필요
SOP 지표의 실제 온라인 성능과의 정확한 상관관계에 대한 추가 연구 필요
Patch Module의 복잡성 및 계산 비용에 대한 분석 필요
👍