[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

世界中で発行される人工知能関連の論文をまとめるページです。
このページはGoogle Geminiを活用して要約し、非営利で運営しています。
論文の著作権は著者および関連機関にあり、共有する際は出典を明記してください。

ScaleRTL: Scaling LLMs with Reasoning Data and Test-Time Compute for Accurate RTL Code Generation

Created by
  • Haebom

作者

Chenhui Deng, Yun-Da Tsai, Guan-Ting Liu, Zhongzhi Yu, Haoxing Ren

概要

この論文では、大規模言語モデル(LLM)を活用したRTLコード生成の制限を解決するために、高品質推論データとテスト時間演算を拡張する最初の推論ベースLLMであるScaleRTLを提案します。既存の方法のデータ不足と非推論的性質によるテスト時間拡張の困難を克服するために、平均56Kトークンのさまざまな長文推論プロセスを含む3.5Bトークンスケールのデータセットを構築しました。このデータセットを使用して一般的な推論モデルを微調整し、深いRTL推論を可能にするScaleRTLを開発しました。さらに、以前の推論ステップを繰り返し反芻し、自己修正する新しいテストタイムスケーリング戦略によってパフォーマンスが向上しました。実験の結果、ScaleRTLは、VerilogEvalとRTLLMのベンチマークで、既存の18の競合モデルを最大18.4%(VerilogEval)、12.7%(RTLLM)以上の最先端のパフォーマンスを達成しました。

Takeaways、Limitations

Takeaways:
高品質推論データとテスト時間演算拡張によりLLMベースのRTLコード生成の性能向上を達成した。
長文推論プロセスを活用した新しいデータセットの構築と微調整技術の提示
新しいテストタイムスケーリング戦略により、さらなるパフォーマンスの向上を導き出します。
VerilogEvalとRTLLMのベンチマークで最先端のパフォーマンスを達成。
Limitations:
提示されたデータセットの一般化性能と多様性の追加検証が必要です。
テスト時間拡張戦略の計算コストと効率の分析の必要性
実際の産業現場の複雑なRTLコード生成に対する適用性の検討が必要
他のプログラミング言語やハードウェアプラットフォームへのスケーラビリティに関する研究が必要です。
👍