Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

An Empirical Study of Reasoning Steps in Thinking Code LLMs

Created by
  • Haebom
Category
Empty

저자

Haoran Xue, Gias Uddin, Song Wang

개요

본 논문은 대규모 언어 모델(LLMs)이 최종 답변 전에 명시적인 중간 추론 과정을 생성하여 코드 생성의 투명성, 해석 가능성 및 정확성을 향상시킬 수 있다는 점을 연구한다. 6가지 최첨단 추론 LLM(DeepSeek-R1, OpenAI-o3-mini, Claude-3.7-Sonnet-Thinking, Gemini-2.0-Flash-Thinking, Gemini-2.5-Flash, Qwen-QwQ)을 BigCodeBench의 100개 코드 생성 작업에서 평가한다. 추론 과정의 구조, 단계 수, 자세함 등을 정량화하고, 단계 예산 조정을 수행하며, 21명의 참가자를 대상으로 효율성, 논리적 정확성 및 완전성 등 3가지 측면에서 인간 평가를 진행한다.

시사점, 한계점

시사점:
특정 모델 및 작업에 대해 단계 증가가 해결률을 향상시킬 수 있다.
작업 난이도가 추론 품질에 큰 영향을 미치며, 어려운 문제는 완전성 부족에 더 취약하다.
추론 LLM은 계산 노력 수준에 걸쳐 일관된 논리 구조를 유지하고 이전 오류를 자체적으로 수정할 수 있다.
한계점:
본 연구에서는 완전성이 주요 실패 모드로 확인되었다.
소프트웨어 엔지니어링 분야의 현재 추론 LLM의 강점과 약점에 대한 새로운 통찰력을 제공한다.
👍