본 논문은 대규모 언어 모델(LLM)을 활용한 RTL 코드 생성의 한계를 해결하기 위해, 고품질 추론 데이터와 테스트 시간 연산을 확장하는 최초의 추론 기반 LLM인 ScaleRTL을 제안합니다. 기존 방법들의 데이터 부족 및 비추론적 특성으로 인한 테스트 시간 확장의 어려움을 극복하기 위해, 평균 56K 토큰의 다양한 장문 추론 과정을 포함하는 3.5B 토큰 규모의 데이터셋을 구축했습니다. 이 데이터셋으로 일반적인 추론 모델을 미세 조정하여 심층적인 RTL 추론이 가능한 ScaleRTL을 개발했습니다. 더 나아가, 이전 추론 단계를 반복적으로 반추하고 자기 수정하는 새로운 테스트 시간 확장 전략을 통해 성능을 향상시켰습니다. 실험 결과, ScaleRTL은 VerilogEval 및 RTLLM 벤치마크에서 기존 18개의 경쟁 모델을 최대 18.4% (VerilogEval), 12.7% (RTLLM) 상회하는 최첨단 성능을 달성했습니다.