MLRC-Bench: Can Language Agents Solve Machine Learning Research Challenges?
Created by
Haebom
저자
Yunxiang Zhang, Muhammad Khalifa, Shitanshu Bhushan, Grant D Murphy, Lajanugen Logeswaran, Jaekyeom Kim, Moontae Lee, Honglak Lee, Lu Wang
개요
MLRC-Bench는 기존의 LLM 평가 방식과 달리, 혁신적인 방법론을 필요로 하는 개방형 머신러닝 연구 과제 해결 능력을 측정하는 벤치마크입니다. LLM이 연구 과제 제안 및 구현 과정의 주요 단계를 평가하고, 엄격한 프로토콜과 객관적인 지표를 사용하여 성능을 측정합니다. 7개의 경진대회 과제로 구성되어 있으며, 최고 성능의 에이전트(gemini-exp-1206 under MLAB)조차도 기준 점수와 최고 인간 참가자 점수 간격의 9.3%만을 줄이는 데 그쳤습니다. 또한, LLM이 평가한 혁신성과 최첨단 머신러닝 연구 문제에 대한 실제 성능 간의 불일치를 보여줍니다. 새로운 ML 경진대회가 추가됨에 따라 지속적으로 발전하며, AI 연구 능력의 엄격하고 객관적인 평가를 장려합니다. Hugging Face를 통해 리더보드와 코드를 공개합니다.
시사점, 한계점
•
시사점:
◦
LLM 기반 에이전트의 머신러닝 연구 과제 해결 능력에 대한 객관적이고 엄격한 평가 기준 제공