[공지사항]을 빙자한 안부와 근황 
Show more

Daily Arxiv

Cette page résume et organise les publications en intelligence artificielle du monde entier.
Les contenus sont synthétisés grâce à Google Gemini et le service est proposé à but non lucratif.
Les droits d'auteur des articles appartiennent à leurs auteurs ou institutions respectives ; en cas de partage, il suffit d'en mentionner la source.

ScaleRTL : mise à l'échelle des LLM avec des données de raisonnement et des calculs au moment des tests pour une génération précise de code RTL

Created by
  • Haebom

Auteur

Chenhui Deng, Yun-Da Tsai, Guan-Ting Liu, Zhongzhi Yu, Haoxing Ren

Contour

Dans cet article, nous proposons ScaleRTL, le premier LLM basé sur l'inférence, qui étend les données d'inférence de haute qualité et les calculs au temps de test afin de pallier les limitations de la génération de code RTL à l'aide de modèles de langage à grande échelle (LLM). Pour surmonter les difficultés d'extension du temps de test dues au manque de données et aux caractéristiques non inférentielles des méthodes existantes, nous construisons un jeu de données de 3,5 milliards de jetons contenant divers processus d'inférence longs avec une moyenne de 56 000 jetons. À partir de ce jeu de données, nous affinons un modèle d'inférence général pour développer ScaleRTL, qui permet une inférence RTL approfondie. De plus, nous améliorons les performances en introduisant une nouvelle stratégie d'extension du temps de test qui rumine et autocorrige de manière répétée les étapes d'inférence précédentes. Les résultats expérimentaux montrent que ScaleRTL atteint des performances de pointe sur les benchmarks VerilogEval et RTLLM, surpassant 18 modèles concurrents existants jusqu'à 18,4 % (VerilogEval) et 12,7 % (RTLLM).

Takeaways, Limitations

Takeaways:
Nous obtenons des améliorations de performances dans la génération de code RTL basé sur LLM en exploitant des données d'inférence de haute qualité et des extensions de calcul au moment des tests.
Nous présentons une nouvelle technique de construction et de réglage fin d’ensembles de données utilisant un processus d’inférence de forme longue.
Améliorations supplémentaires des performances obtenues grâce à une nouvelle stratégie d’extension du temps de test.
Atteindre des performances de pointe sur les benchmarks VerilogEval et RTLLM.
Limitations:
Une validation supplémentaire des performances de généralisation et de la diversité de l’ensemble de données présenté est nécessaire.
Nécessité d’une analyse du coût de calcul et de l’efficacité des stratégies d’extension du temps de test.
Il est nécessaire de revoir l’applicabilité à la génération de codes RTL complexes dans les sites industriels réels.
Des recherches sont nécessaires sur l’extensibilité à d’autres langages de programmation et plates-formes matérielles.
👍