Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Saving SWE-Bench: A Benchmark Mutation Approach for Realistic Agent Evaluation

Created by
  • Haebom

저자

Spandan Garg, Ben Steenhoek, Yufan Huang

개요

소프트웨어 엔지니어링 에이전트 평가를 위한 현재 벤치마크(SWE-Bench Verified 등)가 실제 개발 환경(IDE)에서의 상호작용을 제대로 반영하지 못해 에이전트 능력을 과대평가하는 문제를 제기합니다. 이를 해결하기 위해, 기존 벤치마크를 실제 사용자와 유사한 쿼리로 변환하는 새로운 벤치마킹 프레임워크를 제안합니다. 이 프레임워크를 SWE-Bench Verified, Multi-SWE-Bench의 TypeScript 부분집합, 그리고 SWE-Bench C#에 적용하여, 기존 벤치마크가 일부 모델의 능력을 과대평가함을 밝혔습니다.

시사점, 한계점

시사점:
기존 벤치마크의 한계를 지적하고, 실제 환경을 반영하는 새로운 평가 방법론을 제시함.
개발자 상호작용 패턴 분석을 기반으로 한 벤치마크 변환 기술을 통해 현실적인 평가 가능성을 보여줌.
기존 벤치마크에서의 과대평가 문제를 구체적인 수치로 제시하며, 실제 성능과의 차이를 강조함.
한계점:
특정 벤치마크(SWE-Bench Verified 등)와 특정 에이전트 상호작용 데이터에 기반하여 연구가 진행되었으므로, 일반화에 한계가 있을 수 있음.
제안된 프레임워크의 확장성 및 다른 벤치마크에 대한 적용 가능성은 추가적인 연구가 필요함.
테스트 프레임워크를 적용한 모델의 구체적인 특성 및 원인 분석에 대한 설명이 부족할 수 있음.
👍