Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Co-Evolving Agents: Learning from Failures as Hard Negatives

Created by
  • Haebom
Category
Empty

저자

Yeonsung Jung, Trilok Padhi, Sina Shaham, Dipika Khullar, Joonhyun Jeong, Ninareh Mehrabi, Eunho Yang

개요

대규모 기반 모델의 발전으로 태스크 특화 에이전트 개발이 가속화되었지만, 에이전트의 효과는 훈련 데이터의 품질에 크게 의존하며, 태스크별 데이터셋 구축의 어려움이 존재한다. 본 논문은 자기 개선 에이전트의 한계를 극복하기 위해, 대상 에이전트와 보조 실패 에이전트가 함께 진화하는 프레임워크를 제안한다. 실패 에이전트는 대상 에이전트와 자기 자신의 실패 궤적을 기반으로 선호도 최적화를 통해 학습하며, 성공에 가깝지만 실패한 'hard negatives'를 생성한다. 이렇게 생성된 hard negatives는 대상 에이전트의 최적화에 활용되어 결정 경계를 강화하고 일반화 성능을 향상시킨다.

시사점, 한계점

시사점:
자기 개선 에이전트에서 실패를 구조화된 학습 신호로 활용하는 새로운 접근 방식 제시
hard negatives를 활용하여 에이전트의 일반화 성능 향상
벤치마크 데이터셋에서 기존 방법론 대비 향상된 성능 입증
한계점:
구체적인 구현 및 실험 세부 사항에 대한 정보 부족
실제 환경에서의 적용 가능성 및 확장성에 대한 추가 연구 필요
실패 에이전트의 학습 및 성능에 대한 추가적인 분석 필요
👍