Trong bài báo này, chúng tôi đề xuất ScaleRTL, LLM dựa trên suy luận đầu tiên mở rộng dữ liệu suy luận chất lượng cao và tính toán thời gian kiểm thử để giải quyết các hạn chế của việc tạo mã RTL bằng các mô hình ngôn ngữ quy mô lớn (LLM). Để khắc phục những khó khăn về việc kéo dài thời gian kiểm thử do thiếu dữ liệu và các đặc điểm không suy luận của các phương pháp hiện có, chúng tôi xây dựng một tập dữ liệu mã thông báo 3,5 tỷ chứa nhiều quy trình suy luận dạng dài với trung bình 56 nghìn mã thông báo. Sử dụng tập dữ liệu này, chúng tôi tinh chỉnh một mô hình suy luận chung để phát triển ScaleRTL, cho phép suy luận RTL sâu. Hơn nữa, chúng tôi cải thiện hiệu suất bằng cách giới thiệu một chiến lược kéo dài thời gian kiểm thử mới, liên tục suy ngẫm và tự sửa các bước suy luận trước đó. Kết quả thử nghiệm cho thấy ScaleRTL đạt hiệu suất tiên tiến trên các điểm chuẩn VerilogEval và RTLLM, vượt trội hơn 18 mô hình cạnh tranh hiện có tới 18,4% (VerilogEval) và 12,7% (RTLLM).