Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

Customizing a Large Language Model for VHDL Design of High-Performance Microprocessors

Created by
  • Haebom

저자

Nicolas Dupuis, Ravi Nair, Shyam Ramji, Sean McClintock, Nishant Chauhan, Priyanka Nagpal, Bart Blaner, Ken Valk, Leon Stok, Ruchir Puri

개요

본 논문은 고성능 프로세서 설계 분야에서 VHDL 코드 설명을 위한 대규모 언어 모델(LLM) 개발 과정을 설명합니다. Verilog에 비해 상대적으로 적은 주목을 받고 있는 VHDL에 초점을 맞춰, 특히 오랜 경험과 자산을 보유한 조직의 요구사항에 맞춘 테스트 세트를 개발하고, 기본 LLM의 확장된 사전 훈련(EPT)을 통해 모델 성능을 향상시켰습니다. 전문가 평가 결과, EPT 모델의 코드 설명 정확도는 기본 모델의 43%에서 69%로 증가했습니다. 또한, 전문가 평가자와 유사하게 모델을 평가하는 LLM-as-a-judge를 개발하여 다양한 모델을 평가하고, 지시어 튜닝된 EPT 모델의 예상 전문가 평가 점수를 71%까지 높였습니다. 향후 더욱 발전된 기본 모델을 사용하면 85% 이상의 정확도를 달성할 수 있을 것으로 예상하며, 생성형 AI의 발전을 활용하여 하드웨어 설계 LLM의 질을 더욱 향상시키는 방안을 논의합니다.

시사점, 한계점

시사점:
VHDL 코드 설명을 위한 LLM 개발 및 성능 향상 전략 제시.
전문가 수준의 평가를 위한 LLM-as-a-judge 활용.
고성능 프로세서 설계 분야에 특화된 LLM 개발 가능성 제시.
향후 생성형 AI 기술을 활용한 하드웨어 설계 LLM 성능 향상 가능성 제시.
한계점:
현재까지 개발된 모델의 정확도가 아직 완벽하지 않음 (최대 85% 예상).
고성능 프로세서 설계 분야에 특화된 데이터셋의 제한.
다양한 VHDL 코드 스타일 및 복잡도에 대한 일반화 성능 검증 필요.
실제 산업 현장 적용을 위한 추가적인 검증 및 최적화 필요.
👍