ModelingAgent: Bridging LLMs and Mathematical Modeling for Real-World Challenges
Created by
Haebom
저자
Cheng Qian, Hongyi Du, Hongru Wang, Xiusi Chen, Yuji Zhang, Avirup Sil, Chengxiang Zhai, Kathleen McKeown, Heng Ji
개요
본 논문은 실제 세계의 복잡한 수학 문제 해결을 위한 새로운 벤치마크인 ModelingBench와 그에 대한 해결책을 생성하는 다중 에이전트 프레임워크인 ModelingAgent, 그리고 전문가의 관점을 통합한 평가 시스템인 ModelingJudge를 제시합니다. 기존 벤치마크의 한계를 극복하고자 도시 교통 최적화, 생태계 자원 계획 등 다양한 분야의 수학 모델링 경진 대회 문제를 바탕으로 실제 세계 문제를 반영한 개방형 문제들을 포함합니다. ModelingAgent는 도구 사용을 조정하고 구조화된 워크플로를 지원하며 반복적인 자기 개선을 통해 잘 정립되고 창의적인 솔루션을 생성합니다. ModelingJudge는 LLM을 활용하여 여러 전문가의 관점에서 솔루션을 평가합니다. 실험 결과, ModelingAgent는 기존 방법보다 뛰어난 성능을 보이며, 전문가 수준의 솔루션을 생성하는 것으로 나타났습니다.
시사점, 한계점
•
시사점:
◦
실제 세계 문제 해결을 위한 새로운 벤치마크와 평가 프레임워크 제공
◦
개방형, 학제 간 문제 해결 능력 평가
◦
LLM 기반의 다중 에이전트 시스템을 활용한 효과적인 문제 해결
◦
전문가 수준의 솔루션 생성 가능성 제시
◦
다양한 분야의 수학 모델링 문제에 대한 통합적 접근
•
한계점:
◦
ModelingBench에 포함된 문제의 수와 다양성이 제한적일 수 있음.
◦
ModelingJudge의 평가 방식이 전문가 의존적일 수 있으며, 평가의 객관성 확보에 대한 추가적인 연구가 필요함.
◦
ModelingAgent의 일반화 능력 및 다른 유형의 문제에 대한 적용 가능성에 대한 추가적인 검증이 필요함.