Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

When Words Change the Model: Sensitivity of LLMs for Constraint Programming Modelling

Created by
  • Haebom
Category
Empty

저자

Alessio Pellegrino, Jacopo Mauro

개요

최적화 및 제약 프로그래밍 분야의 목표는 자연어로 문제를 설명하고 자동으로 실행 가능한 효율적인 모델을 얻는 것입니다. 대규모 언어 모델(LLM)이 이 비전을 현실로 만들 수 있을 것처럼 보이지만, 기존 벤치마크에 대한 모델 자동 생성에서 상당한 성공을 거두는 것처럼 보이는 것은 데이터 오염 때문일 수 있습니다. 본 연구는 LLM의 진정한 추론 능력을 평가하기 위해, CSPLib 문제를 구조는 유지하면서 맥락을 변경하고 오해의 소지가 있는 요소를 도입하여 체계적으로 재구성하고 변형했습니다. 세 개의 대표적인 LLM이 원본 및 수정된 설명에 대해 생성한 모델을 비교 분석했습니다.

시사점, 한계점

LLM은 문법적으로 유효하고 의미적으로 그럴듯한 모델을 생성할 수 있습니다.
LLM의 성능은 문맥적 및 언어적 변화에 따라 급격히 저하됩니다.
LLM은 얕은 이해를 보이며, 단어 선택에 민감하게 반응합니다.
LLM의 벤치마크 성공은 데이터 오염에 기인할 가능성이 큽니다.
👍