EarthSE: A Benchmark Evaluating Earth Scientific Exploration Capability for Large Language Models
Created by
Haebom
저자
Wanghan Xu, Xiangyu Zhao, Yuhao Zhou, Xiaoyu Yue, Ben Fei, Fenghua Ling, Wenlong Zhang, Lei Bai
개요
본 논문은 지구과학 분야에 특화된, 대규모 언어 모델(LLM)의 과학적 탐구 능력을 평가하기 위한 포괄적인 벤치마크를 제시합니다. 10만 건의 연구 논문을 활용하여 광범위한 평가를 위한 Earth-Iron과 전문적인 수준의 평가를 위한 Earth-Silver라는 두 가지 질의응답(QA) 데이터셋을 구축했습니다. 이 데이터셋은 5개의 지구권, 114개의 학문 분야, 11개의 작업 범주를 포함하여 과학적 탐구에 필수적인 기초 지식을 평가합니다. 특히, 새로운 지표를 포함한 Earth-Gold 데이터셋을 도입하여 방법론 유도, 한계 분석, 개념 제안 등 과학적 탐구에서 LLM의 고급 기능을 평가하도록 설계된 개방형 멀티턴 대화를 평가합니다. 11개의 주요 LLM에 대한 광범위한 실험 결과, 다양한 영역과 작업에서 LLM의 한계를 보여주며 과학적 탐구 능력 향상을 위한 상당한 개선 여지가 있음을 강조합니다. 벤치마크는 https://huggingface.co/ai-earth 에서 이용 가능합니다.