Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

CodeFlowLM: Incremental Just-In-Time Defect Prediction with Pretrained Language Models and Exploratory Insights into Defect Localization

Created by
  • Haebom
Category
Empty

저자

Monique Louise Monteiro, George G. Cabral, Adriano L. I. OLiveira

개요

CodeFlowLM은 사전 훈련된 언어 모델(PLM)을 활용하는 JIT-SDP(Just-In-Time Software Defect Prediction)를 위한 점진적 학습 프레임워크입니다. CodeFlowLM은 처음부터 다시 학습하지 않고도 개념 드리프트, 클래스 불균형 및 검증 지연을 해결하기 위해 지속적인 미세 조정을 사용합니다. CodeFlowLM은 진화하는 소프트웨어 환경에서 뛰어난 적응력과 견고성을 입증하며 최대 68%의 G-Mean 향상을 달성합니다. 또한, JIT-DL(Just-in-Time Defect Localization)에 대한 탐구적 분석을 통해 GPT-5, Claude Sonnet 4.5, Gemini 2.5 Pro와 같은 대규모 언어 모델(LLM)을 어텐션 기반 모델과 비교 평가합니다.

시사점, 한계점

시사점:
CodeFlowLM은 JIT-SDP에서 최대 68%의 G-Mean 향상을 통해 기존 점진적 학습 모델보다 우수한 성능을 보입니다.
GPT-5는 JIT-DL에서 어텐션 기반 모델과 유사한 성능을 보이며 안정성이 높습니다.
LLM은 JIT-DL에서 프롬프트 기반 추론의 잠재력을 보여줍니다.
한계점:
JIT-DL에서 LLM의 성능은 미세 조정 기반 어텐션 모델보다 약간 낮습니다.
오탐은 (1) 인간적인 보수적 편향, (2) diff 기반 프롬프트의 불충분한 컨텍스트 정보, (3) 데이터셋의 잠재적인 잘못된 레이블링(JIT-Defects4J)으로 인해 발생합니다.
LLM의 JIT-DL 성능에는 아직 개선할 여지가 있습니다.
👍