본 논문은 페르시아어와 같이 저자원 언어의 의료 분야에서 소형 언어 모델의 성능 향상을 다룬다. 페르시아어 의료 분야 웹사이트는 많지만, 정제된 데이터셋이나 말뭉치가 없다는 점에 착안하여, 의학 잡지 크롤링 데이터와 의사-환자 질의응답 쌍 데이터셋을 활용하여 정제된 데이터셋을 처음으로 구축하였다. 이 데이터셋을 이용하여 기본 모델을 미세 조정하여 의료 지식을 향상시켰고, 벤치마크 평가 결과 의료 질의응답 정확도와 응답 품질이 향상됨을 확인하였다. 이 연구는 저자원 환경에 적합한 페르시아어 의료 AI 응용 프로그램을 위한 새로운 해결책을 제시하며, 공개 접근 가능한 온라인 데이터를 활용하여 소형 언어 모델을 강화하는 가능성을 보여준다.