Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Can LLMs Generate Reliable Test Case Generators? A Study on Competition-Level Programming Problems

Created by
  • Haebom

저자

Yuhan Cao, Zian Chen, Kun Quan, Ziliang Zhang, Yu Wang, Xiaoning Dong, Yeqi Feng, Guanzhong He, Jingcheng Huang, Jianhao Li, Yixuan Tan, Jiafu Tang, Yilin Tang, Junlei Wu, Qianyu Xiao, Can Zheng, Shouchen Zhou, Yuxiang Zhu, Yiming Huang, Tian Xie, Tianxing He

개요

본 논문은 대규모 언어 모델(LLM)을 이용한 코드 검증 및 디버깅을 경쟁 프로그래밍(CP) 프로그램의 관점에서 연구한 결과를 제시합니다. 특히, LLM이 주어진 CP 문제에 대한 유효한 테스트 케이스 생성기(TCG)를 생성하고, 인간이 작성한 코드의 버그를 드러내는 표적 TCG를 생성하는 능력을 평가하기 위해 TCGBench라는 벤치마크를 제안합니다. 실험 결과, 최첨단 LLM은 대부분의 경우 유효한 TCG를 생성할 수 있지만, 인간 코드의 결함을 효과적으로 드러내는 표적 테스트 케이스를 생성하는 데는 어려움을 겪는다는 것을 보여줍니다. 특히 고급 추론 모델조차도 표적 생성기 생성 작업에서 인간의 성능에 크게 못 미치며, 수동으로 큐레이션된 고품질의 표적 생성기 생성 지침 데이터셋을 활용하여 LLM의 성능을 향상시킬 수 있음을 보여줍니다.

시사점, 한계점

시사점:
LLM을 이용한 코드 검증 및 디버깅에 대한 새로운 벤치마크(TCGBench)를 제시.
LLM의 테스트 케이스 생성 능력에 대한 실험적 분석 결과 제공.
LLM 성능 향상을 위한 고품질 데이터셋의 중요성을 강조.
LLM의 코드 검증 및 디버깅 능력의 한계를 명확히 제시.
한계점:
TCGBench 벤치마크의 범위가 경쟁 프로그래밍에 국한됨.
현재 LLM의 표적 테스트 케이스 생성 능력이 인간 수준에 미치지 못함.
제안된 데이터셋의 일반화 성능에 대한 추가 연구 필요.
👍