Co-Evolving Agents: Learning from Failures as Hard Negatives
Created by
Haebom
Category
Empty
저자
Yeonsung Jung, Trilok Padhi, Sina Shaham, Dipika Khullar, Joonhyun Jeong, Ninareh Mehrabi, Eunho Yang
개요
대규모 기반 모델의 발전으로 태스크 특화 에이전트 개발이 가속화되었지만, 에이전트의 효과는 훈련 데이터의 품질에 크게 의존하며, 태스크별 데이터셋 구축의 어려움이 존재한다. 본 논문은 자기 개선 에이전트의 한계를 극복하기 위해, 대상 에이전트와 보조 실패 에이전트가 함께 진화하는 프레임워크를 제안한다. 실패 에이전트는 대상 에이전트와 자기 자신의 실패 궤적을 기반으로 선호도 최적화를 통해 학습하며, 성공에 가깝지만 실패한 'hard negatives'를 생성한다. 이렇게 생성된 hard negatives는 대상 에이전트의 최적화에 활용되어 결정 경계를 강화하고 일반화 성능을 향상시킨다.