AI 기반 검색 시스템을 위해 다양한 텍스트 임베딩 모델과 파이프라인 구성을 평가합니다. sentence-transformer 및 생성적 임베딩 모델(예: All-MPNet, BGE, GTE, Qwen)을 다양한 차원, 인덱싱 방법(Milvus HNSW/IVF), 청크 전략으로 비교합니다. 미국 시의회 회의록에서 LLM을 사용하여 11,975개의 질의-청크 쌍으로 구성된 맞춤형 평가 데이터 세트를 합성했습니다. 데이터 파이프라인에는 전처리, 청크당 자동 질문 생성, 수동 검증 및 CI/CD 통합이 포함됩니다. Top-K 정확도와 정규화된 할인 누적 이득(NDCG)을 사용하여 검색 정확도를 측정합니다. 더 높은 차원의 임베딩이 검색 품질을 향상시키고, 신경 재순위 모델이 순위 정확도를 더욱 개선하며, 더 세분화된 청크 분할이 정확도를 향상시킵니다.