Daily Arxiv

This page organizes papers related to artificial intelligence published around the world.
This page is summarized using Google Gemini and is operated on a non-profit basis.
The copyright of the paper belongs to the author and the relevant institution. When sharing, simply cite the source.

PrefixGPT: Prefix Adder Optimization by a Generative Pre-trained Transformer

Created by
  • Haebom
Category
Empty

저자

Ruogu Ding, Xin Ning, Ulf Schlichtmann, Weikang Qian

PrefixGPT: Generating Optimized Prefix Adders with Generative Transformers

개요

PrefixGPT는 계산 집약적인 애플리케이션에서 널리 사용되는 고속 Prefix adders를 설계하기 위한 새로운 접근 방식입니다. 엄격한 설계 규칙과 지수적으로 큰 설계 공간으로 인해 최적화된 Prefix adder 설계를 어렵습니다. PrefixGPT는 최적화된 Prefix adders를 처음부터 직접 생성하는 생성적 사전 훈련된 Transformer (GPT)입니다. 이 방법은 adder의 토폴로지를 2차원 좌표 시퀀스로 표현하고 생성 중에 적법성 마스크를 적용하여 모든 설계가 유효하도록 합니다. PrefixGPT는 사용자 정의 디코더 전용 Transformer 아키텍처를 특징으로 합니다. 모델은 설계 규칙을 배우기 위해 무작위로 합성된 유효한 Prefix adders의 코퍼스에서 먼저 사전 훈련된 다음, 최적화된 설계 품질을 위해 설계 공간을 탐색하도록 미세 조정됩니다.

시사점, 한계점

7.7% 향상된 area-delay product (ADP)를 가진 새로운 최적 설계를 발견했습니다.
평균 ADP를 최대 79.1%까지 낮추어 우수한 탐색 품질을 보였습니다.
GPT 스타일 모델이 복잡한 하드웨어 설계 원리를 숙달하고 이를 더 효율적인 설계 최적화에 적용할 수 있는 잠재력을 보여줍니다.
해당 논문의 한계점은 명시적으로 언급되지 않았습니다.
👍