UI-S1: Advancing GUI Automation via Semi-online Reinforcement Learning
Created by
Haebom
저자
Zhengxi Lu, Jiabo Ye, Fei Tang, Yongliang Shen, Haiyang Xu, Ziwei Zheng, Weiming Lu, Ming Yan, Fei Huang, Jun Xiao, Yueting Zhuang
개요
본 논문은 강화학습을 통해 복잡한 사용자 인터페이스 상호작용을 자동화하는 GUI 에이전트 연구에 대한 것이다. 기존의 오프라인 강화학습은 안정적인 훈련을 가능하게 하지만, 다단계 작업 실행에 필요한 보상 신호가 부족하고, 온라인 강화학습은 이러한 신호를 포착하지만 희소 보상과 높은 배포 비용의 문제점을 가진다. 이를 해결하기 위해, 본 논문은 오프라인 경로 상에서 온라인 강화학습을 시뮬레이션하는 새로운 패러다임인 Semi-online Reinforcement Learning을 제시한다. 각 롤아웃 과정에서 다중 턴 대화 내 원래 모델 출력을 보존하고, Patch Module을 사용하여 롤아웃과 전문가 경로 간의 차이를 적응적으로 복구한다. 장기적인 훈련 신호를 포착하기 위해 할인된 미래 수익을 보상 계산에 도입하고 가중된 단계 수준 및 에피소드 수준 이점을 사용하여 정책을 최적화한다. 또한 실제 온라인 성능과 더 잘 일치하는 지표인 Semi-Online Performance (SOP)를 도입하여 실제 환경 평가를 위한 실용적이고 효과적인 대리 지표로 사용한다. 실험 결과, 제안된 Semi-online RL은 4개의 동적 벤치마크에서 7B 모델 중 최고 성능을 달성했으며, 기본 모델보다 상당한 성능 향상을 보였다 (예: AndroidWorld에서 +12.0%, AITW에서 +23.8%). 이는 오프라인 훈련 효율성과 온라인 다중 턴 추론 간의 격차를 줄이는 데 상당한 진전을 보여준다. 코드는 https://github.com/X-PLUG/MobileAgent/tree/main/UI-S1 에서 확인 가능하다.