본 논문은 온라인 서비스의 증가에 따라 실시간 성능과 복잡한 사용자-아이템 상호작용 처리가 가능한 고속, 고효율 추천 시스템(ReS)의 필요성에 주목합니다. 하이브리드 그래프 신경망(GNN)과 대규모 언어 모델(LLM) 기반 ReS의 계산 병목 현상을 최적화하여 추론 지연 시간과 훈련 효율을 개선하는 방법을 제시합니다. 양자화, LoRA, 지식 증류와 같은 아키텍처 최적화 전략과 FPGA, DeepSpeed와 같은 하드웨어 가속을 R 4.4.2 환경에서 하이브리드 GNN-LLM 통합 아키텍처에 적용하는 광범위한 방법론을 사용했습니다. 실험 결과, 최적화된 하이브리드 + FPGA + DeepSpeed 구성은 지연 시간 40-60ms에서 정확도(NDCG@10: 0.75)가 13.6% 향상되었으며, LoRA는 훈련 시간을 66%(3.8시간) 단축했습니다. 도메인에 관계없이 하드웨어-소프트웨어 공동 설계 및 매개변수 효율적인 튜닝을 통해 하이브리드 모델이 독립적으로 구현된 GNN 또는 LLM 접근 방식보다 우수한 성능을 보임을 보여줍니다. 실시간 배포를 위해 FPGA와 LoRA를 사용할 것을 권장합니다.