Dans cet article, nous proposons ScaleRTL, le premier LLM basé sur l'inférence, qui étend les données d'inférence de haute qualité et les calculs au temps de test afin de pallier les limitations de la génération de code RTL à l'aide de modèles de langage à grande échelle (LLM). Pour surmonter les difficultés d'extension du temps de test dues au manque de données et aux caractéristiques non inférentielles des méthodes existantes, nous construisons un jeu de données de 3,5 milliards de jetons contenant divers processus d'inférence longs avec une moyenne de 56 000 jetons. À partir de ce jeu de données, nous affinons un modèle d'inférence général pour développer ScaleRTL, qui permet une inférence RTL approfondie. De plus, nous améliorons les performances en introduisant une nouvelle stratégie d'extension du temps de test qui rumine et autocorrige de manière répétée les étapes d'inférence précédentes. Les résultats expérimentaux montrent que ScaleRTL atteint des performances de pointe sur les benchmarks VerilogEval et RTLLM, surpassant 18 modèles concurrents existants jusqu'à 18,4 % (VerilogEval) et 12,7 % (RTLLM).