Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Establishing Best Practices for Building Rigorous Agentic Benchmarks

Created by
  • Haebom

저자

Yuxuan Zhu, Tengjun Jin, Yada Pruksachatkun, Andy Zhang, Shu Liu, Sasha Cui, Sayash Kapoor, Shayne Longpre, Kevin Meng, Rebecca Weiss, Fazl Barez, Rahul Gupta, Jwala Dhamala, Jacob Merizian, Mario Giulianelli, Harry Coppock, Cozmin Ududec, Jasjeet Sekhon, Jacob Steinhardt, Antony Kellerman, Sarah Schwettmann, Matei Zaharia, Ion Stoica, Percy Liang, Daniel Kang

개요

본 논문은 AI 에이전트의 성능 평가를 위한 에이전트 벤치마크의 문제점을 지적하고, 이를 해결하기 위한 지침인 Agentic Benchmark Checklist (ABC)를 제시합니다. 기존의 많은 에이전트 벤치마크들은 과제 설정이나 보상 설계의 문제로 인해 에이전트 성능을 최대 100%까지 과소 또는 과대 평가할 수 있다는 것을 보여줍니다. 예를 들어, SWE-bench Verified는 불충분한 테스트 사례를 사용하고, TAU-bench는 빈 답변을 성공적인 것으로 간주합니다. ABC는 벤치마크 구축 경험, 모범 사례 조사, 그리고 이전에 보고된 문제들을 종합하여 만들어졌으며, 복잡한 평가 설계를 가진 CVE-Bench에 적용하여 성능 과대 평가를 33% 줄이는 효과를 보였습니다.

시사점, 한계점

시사점:
AI 에이전트 벤치마크의 신뢰성 향상에 기여할 수 있는 체크리스트(ABC)를 제공합니다.
기존 벤치마크의 설계 및 평가 방식에 대한 문제점을 명확히 제시합니다.
벤치마크 설계 및 평가 과정에서 발생할 수 있는 오류를 최소화하는 방법을 제시합니다.
ABC를 활용하여 AI 에이전트 성능 평가의 정확성을 높일 수 있습니다.
한계점:
ABC가 모든 유형의 에이전트 벤치마크에 적용 가능한지에 대한 추가적인 검증이 필요합니다.
ABC의 적용으로 인한 추가적인 비용이나 시간 소요에 대한 고려가 필요합니다.
ABC 체크리스트의 포괄성 및 실제 적용의 효율성에 대한 추가 연구가 필요합니다.
👍