Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Are Large Language Models Robust in Understanding Code Against Semantics-Preserving Mutations?

Created by
  • Haebom

저자

Pedro Orvalho, Marta Kwiatkowska

개요

본 논문은 최신 대규모 언어 모델(LLM)의 프로그래밍 작업에서의 추론 능력과 견고성을 평가합니다. 기존 연구들이 LLM의 프로그램 출력 예측 정확도에 초점을 맞춘 것과 달리, 본 연구는 예측의 근거가 되는 추론 과정 자체를 평가합니다. 변수 이름 변경, 비교 표현식 반전, if-else 문 교체, for 루프를 while 루프로 변환, 루프 언롤링 등의 의미를 보존하는 코드 변이를 적용하여 6개의 LLM을 평가하고, LiveCodeBench와 CruxEval을 사용하여 예측의 정확성과 견고성을 분석했습니다. 전문가 분석을 통해 정확한 예측이라도 잘못된 추론에 기반한 경우가 많다는 것을 발견했습니다.

시사점, 한계점

시사점:
LLM이 프로그래밍 작업에서 정확한 답을 제시하더라도, 그 근거가 되는 추론 과정이 부실할 수 있음을 보여줍니다. (Llama 3.2의 경우 최대 61%까지 잘못된 추론에 기반한 정확한 예측을 생성)
LLM의 코드 이해 능력에 대한 견고성이 부족함을 확인했습니다. 코드 변이에 따라 예측이 변경되는 경우가 빈번했습니다.
LLM의 추론 과정을 평가하는 새로운 방법론을 제시합니다.
한계점:
평가에 사용된 코드 변이 유형이 제한적일 수 있습니다.
더 다양한 LLM과 더욱 복잡한 프로그램에 대한 추가적인 연구가 필요합니다.
인간 전문가 분석에 대한 주관성의 영향을 고려해야 합니다.
👍