[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

QSpark: Towards Reliable Qiskit Code Generation

Created by
  • Haebom

저자

Kiana Kheiri, Aamna Aamir, Andriy Miranskyy, Chen Ding

개요

본 논문은 양자 회로의 오류 허용 능력 향상을 위해 대규모 언어 모델(LLM)을 강화 학습(RL) 기법으로 미세 조정하는 연구를 다룹니다. Granite-20B-Code 및 StarCoder와 같은 기존 LLM들이 종종 오류가 있는 Qiskit 코드를 생성하는 문제를 해결하고자, 32B 모델을 Group Relative Policy Optimization (GRPO)와 Odds-Ratio Preference Optimization (ORPO) 두 가지 RL 방법을 사용하여 풍부하게 주석이 달린 합성 데이터셋으로 미세 조정했습니다. Qiskit HumanEval 벤치마크에서 ORPO는 56.29% Pass@1 (Granite-8B-QK 대비 약 10% 향상)을, GRPO는 49%를 달성하여 기존의 범용 기준 모델들을 모두 능가했습니다. 원래 HumanEval에서는 각각 65.90%와 63.00%의 점수를 기록했습니다. GRPO는 기본적인 과제에, ORPO는 중급 과제에 강점을 보였으나, 고급 과제는 해결하지 못하여 AI 기반 양자 프로그래밍의 발전 가능성과 한계를 동시에 보여줍니다.

시사점, 한계점

시사점:
RL 기법을 활용하여 LLM의 양자 프로그래밍 성능을 향상시킬 수 있음을 보여줌.
GRPO와 ORPO 두 가지 RL 방법 모두 기존 범용 기준 모델 대비 성능 향상을 달성.
다양한 난이도의 과제에 대한 성능 분석을 통해 AI 기반 양자 프로그래밍의 현황과 발전 방향 제시.
한계점:
고난이도의 양자 프로그래밍 과제 해결에는 여전히 어려움을 보임.
합성 데이터셋을 사용하여 학습되었으므로, 실제 양자 프로그래밍 환경에서의 성능은 추가 검증 필요.
두 RL 방법 모두 특정 유형의 과제에 강점을 보이는 등, 모든 유형의 과제에 대한 일반화 성능 향상 필요.
👍