PrefixGPT는 컴퓨팅 집약적인 애플리케이션에 널리 사용되는 고속 Prefix adder를 처음부터 직접 생성하는 생성적 사전 훈련된 Transformer (GPT) 모델입니다. Adder의 토폴로지를 2차원 좌표 시퀀스로 표현하고 생성 과정에서 유효성 마스크를 적용하여 모든 설계가 유효하도록 보장합니다. PrefixGPT는 사용자 정의 디코더 전용 Transformer 아키텍처를 특징으로 하며, 설계 규칙을 학습하기 위해 무작위로 합성된 유효한 prefix adder의 코퍼스에 대해 사전 훈련을 거친 후, 최적화된 설계 품질을 위해 설계 공간을 탐색하도록 미세 조정되었습니다. PrefixGPT는 기존 연구와 비교하여 7.7% 향상된 ADP (Area-Delay Product)를 가진 새로운 최적 설계를 찾았으며, 최대 79.1%까지 평균 ADP를 낮추는 우수한 탐색 품질을 보였습니다.