본 연구는 페르시아어와 같은 저자원 언어의 의료 분야에서 소규모 언어 모델의 성능 향상을 목표로 한다. 페르시아어 의료 관련 데이터의 부재 문제를 해결하기 위해, 2만 개의 의사-환자 질의응답 쌍과 9천만 토큰 규모의 의료 잡지 크롤링 코퍼스로 구성된 새로운 데이터셋을 구축했다. 이를 활용하여 매개변수 효율적인 파인 튜닝 기법을 통해 aya-expanse-8b 모델의 의료 지식을 향상시켰다. 파인 튜닝된 모델은 의료 질문 답변 정확도 향상과 함께 2023년 9월 이란 기초 의학 과학 입학 시험 (IBSEE) 통과라는 성과를 거두었으며, 페르시아어 번역 MMLU 정확도 또한 평균 2.67% 향상되었다. 본 연구는 오픈 액세스 온라인 데이터를 활용하여 의료 분야의 소규모 언어 모델을 강화할 수 있는 가능성을 제시하며, 자원 제약적인 환경에 적합한 페르시아어 의료 AI 애플리케이션 개발에 새로운 해결책을 제공한다.
시사점, 한계점
•
페르시아어 의료 분야의 데이터 부족 문제를 해결하기 위한 최초의 큐레이션된 데이터셋 구축
•
소규모 언어 모델의 의료 지식 향상 및 의료 질문 답변 정확도 개선
•
이란 기초 의학 과학 입학 시험 (IBSEE) 통과 및 페르시아어 번역 MMLU 정확도 향상