본 논문은 대규모 언어 모델(LLM)을 활용한 RTL(Register-Transfer Level) 생성에서 여러 LLM을 효과적으로 활용하는 방안을 제시한다. LLM은 RTL 생성에 강점을 보이지만, 모델별로 성능 차이가 존재한다. 기존 연구는 단일 모델을 프롬프트하거나 미세 조정하는 데 집중했지만, 본 연구는 여러 LLM을 조정하여 RTL 품질을 향상시키면서 비용을 절감하는 방법을 연구한다. 이를 위해 VeriDispatcher라는 멀티 LLM RTL 생성 프레임워크를 제안한다. VeriDispatcher는 사전 추론 난이도 예측을 기반으로 각 RTL 작업을 적합한 LLM에 할당한다. 각 모델에 대해, 구문, 구조적 유사성, 기능적 정확성을 결합한 벤치마크 변형에서 파생된 난이도 점수를 사용하여 작업 설명의 의미론적 임베딩에 대한 소형 분류기를 훈련한다. 추론 시 VeriDispatcher는 이러한 예측기를 사용하여 작업을 선택된 LLM 하위 집합으로 라우팅한다. RTLLM 및 VerilogEval에서 10개의 다양한 LLM을 대상으로 VeriDispatcher는 RTLLM에서 상업적 호출의 40%만 사용하면서 최대 18%의 정확도 향상을 달성하고, VerilogEval에서는 정확도를 유지하면서 상업적 사용량을 25% 줄여 하드웨어 설계 자동화에서 비용 효율적이고 고품질의 LLM 배포를 가능하게 한다.