본 논문은 고성능 GPU 코드의 성능 예측을 위해 대규모 언어 모델(LLM)을 활용하는 새로운 방법을 제시한다. 기존의 GPU 성능 분석은 타겟 하드웨어에서의 실행 시간 프로파일링을 필요로 하지만, 고성능 GPU 접근의 어려움으로 인해 제약이 크다. 본 연구는 LLM이 하드웨어 의존 없이 GPU 커널의 성능을 예측할 수 있는지 여부를 Roofline 모델 기반 분류 작업으로 접근한다. CUDA와 OpenMP로 작성된 340개의 GPU 커널 데이터셋을 이용하여, 프로파일링 데이터 활용, 제로샷, 퓨샷, 그리고 미세조정 등 네 가지 시나리오에서 LLM의 성능을 평가하였다. 결과적으로 최신 LLM은 프로파일링 데이터가 주어졌을 때 100%의 정확도를 달성하였으며, 추론 능력이 뛰어난 LLM은 프로파일링 정보 없이 최대 64%의 정확도를 보였다. 하지만 LLM 미세조정에는 현재 데이터셋보다 훨씬 더 많은 데이터가 필요함을 확인하였다. 본 연구는 소스 코드 수준의 Roofline 성능 예측에 LLM을 활용한 초기 연구이며, 실행시간 프로파일링이 불가능한 상황에서 최적화 작업을 위한 LLM의 잠재력을 보여준다.