Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

CodeAssistBench (CAB): Dataset & Benchmarking for Multi-turn Chat-Based Code Assistance

Created by
  • Haebom
Category
Empty

저자

Myeongsoo Kim, Shweta Garg, Baishakhi Ray, Varun Kumar, Anoop Deoras

개요

본 논문은 대규모 언어 모델(LLM) 기반 프로그래밍 보조 도구의 성능 평가를 위한 새로운 벤치마크인 CodeAssistBench (CAB)를 소개합니다. 기존 벤치마크의 한계를 극복하고, 실제 프로젝트 환경에서의 다중 턴 상호작용을 평가할 수 있도록 설계되었습니다. CAB는 GitHub 이슈를 기반으로 데이터를 자동 구축하며, 3,286개의 실제 이슈와 214개의 저장소를 포함합니다. 실험 결과, 최신 모델들이 기존 질문 답변(Q&A) 벤치마크에서는 높은 정확도를 보이지만, CAB 환경에서는 낮은 성능을 보여주며, 현실적인 프로젝트 환경에서의 어려움을 강조합니다. CAB는 다중 턴, 코드베이스 기반 프로그래밍 에이전트 연구를 위한 확장 가능하고 재현 가능한 프레임워크를 제공합니다.

시사점, 한계점

시사점:
현존하는 LLM 기반 프로그래밍 보조 도구는 실제 프로젝트 환경에서 여전히 성능이 부족함을 보여줍니다.
CAB는 실제 코드베이스와 다중 턴 상호작용을 평가하는 새로운 벤치마크를 제공하여, 연구의 방향성을 제시합니다.
자동화된 데이터 구축 파이프라인을 통해 대규모, 다양한 환경에서의 평가가 가능합니다.
한계점:
Claude Sonnet 4.5와 같은 최신 모델조차도 수동 검증된 하위 집합에서 12.08%의 낮은 정확도를 보였습니다.
CAB 벤치마크의 문제 해결은 현재 LLM의 근본적인 어려움을 보여줍니다.
👍