[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Circuit Partitioning Using Large Language Models for Quantum Compilation and Simulations

Created by
  • Haebom

저자

Pranav Sinha, Sumit Kumar Jha, Sunny Raj

개요

본 논문은 NISQ 시대의 제한된 양자 컴퓨터 성능 향상을 위해, 노이즈가 많은 양자 게이트를 최소화하는 양자 회로 컴파일 알고리즘의 효율적인 적용 방안을 제시합니다. 기존 알고리즘은 5-6 큐비트 이하의 작은 회로에만 적용 가능하다는 한계가 있기에, 큰 회로를 분할하는 과정이 필수적입니다. 본 연구는 대규모 언어 모델(LLM)을 활용하여 양자 회로를 효과적으로 분할하는 방법을 제안하며, Llama 및 Mistral과 같은 LLM을 Berkeley Quantum Synthesis Toolkit의 quick partition 방식을 학습시켜 QASM 코드를 이해하고 생성하는 능력을 활용합니다. 실험 결과, 오픈소스 LLM을 세심하게 미세 조정하여 53.4%의 분할 정확도를 달성하였으나, 기존의 1-shot 및 few-shot 학습 방식으로는 정확한 분할이 불가능함을 보였습니다.

시사점, 한계점

시사점: LLM을 활용하여 양자 회로 분할 문제에 대한 새로운 접근 방식을 제시하고, 오픈소스 LLM의 미세 조정을 통해 실질적인 성능 향상 가능성을 보여주었습니다. 이는 향후 더욱 복잡한 양자 알고리즘의 효율적인 실행에 기여할 수 있습니다.
한계점: 53.4%의 정확도는 아직 완벽하지 않으며, 더 높은 정확도를 달성하기 위한 추가적인 연구가 필요합니다. 또한, 사용된 LLM의 성능에 의존적이며, 다양한 종류의 양자 회로에 대한 일반화 성능은 추가적인 검증이 필요합니다. 기존의 1-shot 및 few-shot 학습 방식으로는 효과가 없다는 점도 한계로 지적할 수 있습니다.
👍