본 논문은 Retrieval-Augmented Generation (RAG) 모델의 확장성 문제를 해결하기 위해 주성분 분석(PCA)을 활용한 차원 축소 기법을 제안합니다. 고차원의 언어 모델 임베딩은 대규모 금융 텍스트 코퍼스 처리 시 저장 용량 및 지연 시간 문제를 야기하는데, PCA를 통해 임베딩 차원을 줄임으로써 이러한 문제를 완화하고자 합니다. 실제 금융 데이터셋을 사용한 실험을 통해, 3,072 차원의 임베딩을 110 차원으로 축소했을 때 검색 속도는 최대 60배, 색인 크기는 28.6배 감소하는 반면, 정확도는 인간 평가 기준과 비교하여 적당한 수준으로만 감소함을 보였습니다. 이는 PCA 기반 차원 축소가 속도, 메모리 효율성, 정확도를 모두 고려해야 하는 금융 및 거래 분야의 RAG 아키텍처 확장에 효과적임을 시사합니다. Zanista AI의 Newswitch 플랫폼과 같은 실시간 시스템에 적용 가능성을 보여줍니다.