본 논문은 교육 질문 응답, 특히 강의 계획서 맥락에서 사용하기 위해 미세 조정된 두 가지 오픈소스 임베딩 모델을 제시한다. 3,197개의 문장 쌍으로 구성된 합성 데이터셋을 수동 큐레이션과 대규모 언어 모델(LLM) 지원 생성을 통해 만들었다. MultipleNegativesRankingLoss (MNRL)을 사용한 기본 모델과 MNRL과 CosineSimilarityLoss를 결합한 이중 손실 모델 두 가지 학습 전략을 평가했다. 28개 대학 강의 계획서를 사용하여 평가한 결과, 두 미세 조정 모델 모두 all-MiniLM-L6-v2 및 multi-qa-MiniLM-L6-cos-v1을 포함한 강력한 오픈소스 기준 모델보다 성능이 우수하며, 이중 손실 모델은 OpenAI의 text-embedding-3 시리즈와 같은 고성능 독점 임베딩과의 성능 차이를 줄였다. 이 연구는 재사용 가능한 도메인 정렬 임베딩 모델을 제공하며, 학술 챗봇, 검색 증강 생성(RAG) 시스템, 학습 관리 시스템(LMS) 통합과 같은 후속 애플리케이션을 지원하는 재현 가능한 교육 의미 검색 프레임워크를 제공한다.