SemEval-2025 Task 7인 다국어 및 교차 언어 사실 확인 주장 검색을, 문장 유사성에 최적화된 사전 훈련된 트랜스포머에서 미세 조정된 이중 인코더 모델을 사용하여 학습-순위 지정 작업으로 접근했습니다. 다국어 검색에는 원본 언어와 영어 번역본을 모두 사용하고, 교차 언어 검색에는 영어 번역본만 사용하여 훈련했습니다. 5억 개 미만의 매개변수를 가진 경량 모델을 사용하고 Kaggle T4 GPU에서 훈련하여 다국어 검색에서 92% Success@10, 교차 언어 검색에서 80% Success@10를 달성했습니다. 다국어 트랙에서 10위, 교차 언어 트랙에서 5위를 차지했습니다.