Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Thinking vs. Doing: Agents that Reason by Scaling Test-Time Interaction

Created by
  • Haebom

저자

Junhong Shen, Hao Bai, Lunjun Zhang, Yifei Zhou, Amrith Setlur, Shengbang Tong, Diego Caples, Nan Jiang, Tong Zhang, Ameet Talwalkar, Aviral Kumar

개요

본 논문은 기존의 테스트 시간 확장(test-time scaling) 방식이 응답 전에 긴 추론 과정을 생성하는 데 초점을 맞추는 한계를 지적하며, 상호작용이 필요한 에이전트 문제에서는 환경으로부터 새로운 정보를 얻거나 행동을 적응적으로 변화시키는 데 제한이 있다는 점을 강조합니다. 이에 따라, 테스트 시간 상호작용(Test-Time Interaction, TTI)이라는 새로운 확장 차원을 제안합니다. TTI는 에이전트의 상호작용 지평선을 넓혀 탐색, 백트래킹, 동적 재계획과 같은 풍부한 행동을 단일 롤아웃 내에서 가능하게 합니다. 웹 에이전트 도메인을 연구하여, 훈련 없이도 프롬프트 기반 상호작용 확장만으로 웹 벤치마크에서 작업 성공률을 향상시킬 수 있음을 보여줍니다. 더 나아가, 롤아웃 길이를 적응적으로 조정하는 커리큘럼 기반 온라인 강화 학습(RL) 접근 방식인 TTI를 제시하고, Gemma 3 12B 모델을 사용하여 WebVoyager 및 WebArena 벤치마크에서 최첨단 오픈소스, 오픈 데이터 웹 에이전트를 생성합니다. 마지막으로 TTI가 에이전트가 탐색과 활용을 적응적으로 조절할 수 있도록 한다는 것을 보여줍니다. 결과적으로, 상호작용 확장은 단계별 계산 확장을 보완하는 강력한 축으로, 적응형 에이전트 훈련을 위한 새로운 가능성을 제시합니다.

시사점, 한계점

시사점:
테스트 시간 상호작용(TTI)이라는 새로운 테스트 시간 확장 차원을 제시하여, 기존 방식의 한계를 극복하고 적응형 에이전트 개발에 새로운 가능성을 열었습니다.
프롬프트 기반 상호작용 확장만으로도 웹 벤치마크 성능을 향상시킬 수 있음을 실험적으로 증명했습니다.
커리큘럼 기반 온라인 강화 학습을 통해 롤아웃 길이를 적응적으로 조절하는 TTI 알고리즘을 개발하고, 최첨단 성능을 달성했습니다.
TTI가 에이전트의 탐색과 활용 균형을 적응적으로 조절하는 데 효과적임을 보였습니다.
단계별 계산 확장을 보완하는 새로운 접근 방식을 제시하여, 더욱 강력하고 적응적인 에이전트 개발에 기여할 수 있습니다.
한계점:
제안된 TTI 접근 방식의 일반화 성능 및 다양한 환경에 대한 적용 가능성에 대한 추가적인 연구가 필요합니다.
현재 웹 에이전트 도메인에 집중되어 있으므로, 다른 도메인으로의 확장 및 적용 가능성에 대한 검증이 필요합니다.
사용된 모델의 크기(Gemma 3 12B)가 크다는 점은 계산 자원에 대한 접근성 측면에서 한계로 작용할 수 있습니다.
TTI의 학습 과정 및 매개변수 조정에 대한 더 자세한 분석이 필요합니다.
👍