Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Why Do Open-Source LLMs Struggle with Data Analysis? A Systematic Empirical Study

Created by
  • Haebom

저자

Yuqi Zhu, Yi Zhong, Jintian Zhang, Ziheng Zhang, Shuofei Qiao, Yujie Luo, Lun Du, Da Zheng, Huajun Chen, Ningyu Zhang

개요

본 논문은 오픈소스 대규모 언어 모델(LLM)의 데이터 분석 능력 향상 전략을 연구합니다. 다양한 현실적인 시나리오로 구성된 시드 데이터셋을 활용하여 데이터 이해, 코드 생성, 전략적 계획 세 가지 측면에서 모델을 평가합니다. 평가 결과, 전략적 계획 품질이 모델 성능의 주요 결정 요인이며, 상호 작용 디자인과 과제 복잡성이 추론 능력에 상당한 영향을 미치고, 데이터 품질이 다양성보다 최적 성능 달성에 더 큰 영향을 미친다는 세 가지 주요 결과를 도출합니다. 이러한 통찰력을 바탕으로 데이터 합성 방법론을 개발하여 오픈소스 LLM의 분석적 추론 능력을 크게 향상시켰습니다.

시사점, 한계점

시사점:
오픈소스 LLM의 데이터 분석 능력 향상을 위한 데이터 합성 방법론 제시
모델 성능 향상을 위한 전략적 계획, 상호작용 디자인, 데이터 품질의 중요성 강조
데이터 품질이 데이터 다양성보다 성능 향상에 더 큰 영향을 미침을 밝힘
한계점:
연구에 사용된 시드 데이터셋의 일반화 가능성 및 한계
제시된 데이터 합성 방법론의 다른 오픈소스 LLM 및 다양한 데이터 분석 과제에 대한 적용성 검증 필요
전략적 계획, 상호작용 디자인, 데이터 품질의 상호작용 및 영향에 대한 추가 연구 필요
👍