Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

PLSemanticsBench: Large Language Models As Programming Language Interpreters

Created by
  • Haebom

저자

Aditya Thimmaiah, Jiyang Zhang, Jayanth Srinivasa, Junyi Jessy Li, Milos Gligoric

LLM 기반 프로그래밍 언어 인터프리터 연구

개요

대규모 언어 모델(LLM)이 코드 추론에 능숙해짐에 따라, LLM이 프로그래밍 언어의 형식적 의미론에 기반하여 프로그램을 실행(즉, 인터프리터 역할)할 수 있는지에 대한 연구가 진행되었다. 명령형 언어 IMP(C의 하위 집합)를 사용하여, 소규모 단계 운영 의미론(SOS)과 재작성 기반 운영 의미론(K-semantics)으로 형식화된 의미론을 기반으로, LLM의 성능을 평가했다. Human-Written, LLM-Translated, Fuzzer-Generated의 세 가지 평가 세트를 사용했으며, 코드 복잡성 지표를 통해 난이도를 조절했다. 최종 상태 예측, 의미 규칙 예측, 실행 추적 예측의 세 가지 작업을 통해 모델을 평가했다. 표준 규칙의 체계적인 변형을 통해 얻은 두 가지 비표준 의미론을 사용하여 사전 훈련된 기억과 의미론적 능력을 구별했다.

시사점, 한계점

강력한 코드/추론 LLM의 성능은 비표준 의미론에서 하락하여, 표준 의미론에서의 높은 성능과 대조된다.
모델 실패에 패턴이 존재한다.
대부분의 추론 모델은 중첩 루프 깊이가 5 이상인 매우 복잡한 프로그램을 다루는 거친 작업에서 매우 뛰어난 성능을 보인다.
형식적 의미론을 제공하는 것은 단순한 프로그램에는 도움이 되지만, 더 복잡한 프로그램에는 종종 부정적인 영향을 미친다.
LLM이 프로그래밍 언어 인터프리터 역할을 할 가능성을 보여주지만, 견고한 의미론적 이해가 부족함을 지적한다.
👍