Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

EarthSE: A Benchmark Evaluating Earth Scientific Exploration Capability for Large Language Models

Created by
  • Haebom

저자

Wanghan Xu, Xiangyu Zhao, Yuhao Zhou, Xiaoyu Yue, Ben Fei, Fenghua Ling, Wenlong Zhang, Lei Bai

개요

본 논문은 지구과학 분야에 특화된, 대규모 언어 모델(LLM)의 과학적 탐구 능력을 평가하기 위한 포괄적인 벤치마크를 제시합니다. 10만 건의 연구 논문을 활용하여 광범위한 평가를 위한 Earth-Iron과 전문적인 수준의 평가를 위한 Earth-Silver라는 두 가지 질의응답(QA) 데이터셋을 구축했습니다. 이 데이터셋은 5개의 지구권, 114개의 학문 분야, 11개의 작업 범주를 포함하여 과학적 탐구에 필수적인 기초 지식을 평가합니다. 특히, 새로운 지표를 포함한 Earth-Gold 데이터셋을 도입하여 방법론 유도, 한계 분석, 개념 제안 등 과학적 탐구에서 LLM의 고급 기능을 평가하도록 설계된 개방형 멀티턴 대화를 평가합니다. 11개의 주요 LLM에 대한 광범위한 실험 결과, 다양한 영역과 작업에서 LLM의 한계를 보여주며 과학적 탐구 능력 향상을 위한 상당한 개선 여지가 있음을 강조합니다. 벤치마크는 https://huggingface.co/ai-earth 에서 이용 가능합니다.

시사점, 한계점

시사점:
지구과학 분야에 특화된 최초의 포괄적인 LLM 벤치마크 제공
기초 지식 평가뿐 아니라, 고급 과학적 탐구 능력(방법론 유도, 한계 분석, 개념 제안 등) 평가 가능
11개 주요 LLM의 과학적 탐구 능력의 한계를 밝히고 향후 연구 방향 제시
Earth-Iron, Earth-Silver, Earth-Gold 세 가지 데이터셋을 통해 다양한 수준의 평가 가능
한계점:
벤치마크에 사용된 연구 논문의 편향성 가능성
Earth-Gold 데이터셋의 주관적인 평가 요소 존재 가능성
현재 벤치마크에 포함된 LLM의 종류 및 버전이 제한적일 수 있음
새로운 LLM 및 과학적 탐구 방법론의 등장에 따라 벤치마크 업데이트 필요성
👍