Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

IDA-Bench: Evaluating LLMs on Interactive Guided Data Analysis

Created by
  • Haebom

저자

Hanyu Li, Haoyu Liu, Tingyu Zhu, Tianyu Guo, Zeyu Zheng, Xiaotie Deng, Michael I. Jordan

개요

본 논문은 대규모 언어 모델(LLM)을 데이터 분석 에이전트로 활용하는 데 있어 기존 벤치마크가 데이터 분석가의 반복적인 의사결정 과정을 제대로 반영하지 못하는 점을 지적하며, 다중 라운드 상호작용 시나리오에서 LLM 에이전트를 평가하는 새로운 벤치마크인 IDA-Bench를 제안합니다. 복잡한 Kaggle 노트북에서 파생된 과제들을 LLM이 시뮬레이션한 사용자의 순차적인 자연어 명령어로 제시하고, 에이전트의 최종 수치 출력을 사람이 도출한 기준과 비교하여 성능을 평가합니다. 실험 결과, Claude-3.7-thinking과 같은 최첨단 코딩 에이전트조차 과제의 50% 미만에서 성공하여, 단일 회차 테스트에서는 드러나지 않는 LLM의 한계를 보여줍니다. 따라서, 더욱 신뢰할 수 있는 데이터 분석 에이전트를 구축하기 위해서는 LLM의 다중 라운드 능력 향상과 명령어 준수 및 추론 능력의 균형이 필요함을 강조합니다.

시사점, 한계점

시사점:
기존 단일 회차 평가의 한계를 극복하고, LLM의 다중 라운드 상호작용 능력 평가를 위한 새로운 벤치마크 IDA-Bench 제시.
최첨단 LLM 에이전트조차 다중 라운드 데이터 분석 과제에서 낮은 성공률을 보임을 밝힘으로써, LLM의 향상 방향 제시.
데이터 분석 에이전트 개발에 있어 명령어 준수와 추론 능력의 균형이 중요함을 강조.
한계점:
IDA-Bench가 Kaggle 노트북에 기반하여 만들어졌으므로, 다른 데이터 분석 환경이나 유형의 과제에 대한 일반화 가능성 검증 필요.
LLM이 시뮬레이션한 사용자의 명령어가 실제 사용자의 의도와 완벽히 일치하지 않을 가능성 존재.
현재 벤치마크의 규모 및 다양성이 제한적일 수 있음.
👍