Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

GSO: Challenging Software Optimization Tasks for Evaluating SWE-Agents

Created by
  • Haebom

저자

Manish Shetty, Naman Jain, Jinjian Liu, Vijay Kethanaboyina, Koushik Sen, Ion Stoica

개요

GSO라는 새로운 벤치마크를 소개합니다. 이 벤치마크는 고성능 소프트웨어 개발 능력을 평가하기 위해 설계되었으며, 다양한 도메인과 프로그래밍 언어를 포함하는 10개의 코드베이스에서 102개의 최적화 과제를 식별하기 위해 자동화된 파이프라인을 사용합니다. 에이전트는 코드베이스와 성능 테스트를 정확한 명세로 받고, 전문 개발자의 최적화 결과와 비교하여 실행 시간 효율성을 향상시키는 과제를 수행합니다. 실험 결과, 최첨단 SWE 에이전트는 성공률이 5% 미만으로 매우 저조하며, 추론 시간 확장에도 개선이 제한적임을 보여줍니다. 저수준 언어 처리의 어려움, 지연 최적화 전략 사용, 병목 현상 정확한 파악의 어려움 등 주요 실패 원인을 질적 분석을 통해 밝힙니다. 본 연구에서는 벤치마크 코드 및 결과물과 에이전트 경로를 공개하여 향후 연구를 지원합니다.

시사점, 한계점

시사점: 고성능 소프트웨어 개발에 대한 최첨단 언어 모델의 성능 한계를 정량적으로 측정하는 새로운 벤치마크(GSO)를 제시합니다. 저수준 언어 처리, 지연 최적화, 병목 현상 파악 등의 어려움을 밝힘으로써 향후 연구 방향을 제시합니다. 공개된 벤치마크와 데이터는 관련 분야 연구 발전에 기여할 것입니다.
한계점: 현재 최첨단 SWE 에이전트의 성공률이 매우 낮습니다 (5% 미만). 추론 시간 확장이 성능 향상에 미치는 영향이 제한적입니다. 다양한 프로그래밍 언어와 도메인을 포함하지만, 포함된 코드베이스의 종류와 수가 더욱 확장될 필요가 있습니다.
👍