[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

전 세계에서 발간되는 인공지능 관련 논문을 정리하는 페이지 입니다.
본 페이지는 Google Gemini를 활용해 요약 정리하며, 비영리로 운영 됩니다.
논문에 대한 저작권은 저자 및 해당 기관에 있으며, 공유 시 출처만 명기하면 됩니다.

ScaleRTL: Scaling LLMs with Reasoning Data and Test-Time Compute for Accurate RTL Code Generation

Created by
  • Haebom

저자

Chenhui Deng, Yun-Da Tsai, Guan-Ting Liu, Zhongzhi Yu, Haoxing Ren

개요

본 논문은 대규모 언어 모델(LLM)을 활용한 RTL 코드 생성의 한계를 해결하기 위해, 고품질 추론 데이터와 테스트 시간 연산을 확장하는 최초의 추론 기반 LLM인 ScaleRTL을 제안합니다. 기존 방법들의 데이터 부족 및 비추론적 특성으로 인한 테스트 시간 확장의 어려움을 극복하기 위해, 평균 56K 토큰의 다양한 장문 추론 과정을 포함하는 3.5B 토큰 규모의 데이터셋을 구축했습니다. 이 데이터셋으로 일반적인 추론 모델을 미세 조정하여 심층적인 RTL 추론이 가능한 ScaleRTL을 개발했습니다. 더 나아가, 이전 추론 단계를 반복적으로 반추하고 자기 수정하는 새로운 테스트 시간 확장 전략을 통해 성능을 향상시켰습니다. 실험 결과, ScaleRTL은 VerilogEval 및 RTLLM 벤치마크에서 기존 18개의 경쟁 모델을 최대 18.4% (VerilogEval), 12.7% (RTLLM) 상회하는 최첨단 성능을 달성했습니다.

시사점, 한계점

시사점:
고품질 추론 데이터와 테스트 시간 연산 확장을 통해 LLM 기반 RTL 코드 생성의 성능 향상을 달성했습니다.
장문 추론 과정을 활용한 새로운 데이터셋 구축 및 미세 조정 기법 제시.
새로운 테스트 시간 확장 전략을 통해 추가적인 성능 향상을 도출.
VerilogEval 및 RTLLM 벤치마크에서 최첨단 성능 달성.
한계점:
제시된 데이터셋의 일반화 성능 및 다양성에 대한 추가적인 검증 필요.
테스트 시간 확장 전략의 계산 비용 및 효율성에 대한 분석 필요.
실제 산업 현장의 복잡한 RTL 코드 생성에 대한 적용 가능성 검토 필요.
다른 프로그래밍 언어나 하드웨어 플랫폼으로의 확장성에 대한 연구 필요.
👍