Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

EarthSE: A Benchmark for Evaluating Earth Scientific Exploration Capability of LLMs

Created by
  • Haebom

저자

Wanghan Xu, Xiangyu Zhao, Yuhao Zhou, Xiaoyu Yue, Ben Fei, Fenghua Ling, Wenlong Zhang, Lei Bai

개요

본 논문은 지구과학 분야에서 대규모 언어 모델(LLM)의 과학적 탐구 능력을 종합적으로 평가하기 위한 벤치마크를 제시합니다. 기존 벤치마크의 한계인 일반적인 과학적 초점, 지구과학 특수성 결여, 특정 하위 영역만 다룸, 개방형 과학 탐구 능력 평가 부재 등을 해결하기 위해, 10만 건의 연구 논문을 활용하여 두 가지 질의응답(QA) 데이터셋(Earth-Iron, Earth-Silver)과 개방형 다회차 대화 데이터셋(Earth-Gold)을 구성했습니다. Earth-Iron은 광범위한 평가를 위한 포괄적인 질문을, Earth-Silver는 전문적인 심층 평가를 위한 고난도 질문을 제공합니다. Earth-Gold는 새로운 평가 지표를 도입하여 과학적 탐구의 고급 기능(방법론 유도, 한계 분석, 개념 제안 등)을 평가합니다. 11개의 주요 LLM을 대상으로 실험한 결과, 다양한 영역과 과제에서 LLM의 과학적 탐구 능력에 상당한 개선 여지가 있음을 보여줍니다. 해당 벤치마크는 https://huggingface.co/ai-earth 에서 이용 가능합니다.

시사점, 한계점

시사점:
지구과학 분야 LLM 성능 평가를 위한 종합적이고 전문적인 벤치마크 제공
LLM의 과학적 탐구 능력(기초부터 고급 수준까지)에 대한 포괄적인 평가 가능
개방형 다회차 대화 데이터셋(Earth-Gold)을 통한 고급 과학 탐구 능력 평가 가능
주요 LLM의 과학적 탐구 능력의 한계점을 명확히 제시하여 향후 연구 방향 제시
지구과학 분야에서 LLM의 발전을 위한 중요한 기반 마련
한계점:
벤치마크에 사용된 연구 논문 corpus의 편향성에 대한 검토 필요
Earth-Gold 데이터셋의 질문 및 답변의 주관성에 대한 고려 필요
평가 지표의 객관성 및 신뢰도에 대한 추가적인 검증 필요
특정 지구과학 분야에 대한 과도한 집중으로 인한 일반화의 어려움
현재 LLM 기술의 한계로 인해 완벽한 과학적 탐구 능력 평가에 어려움 존재 가능성
👍