본 논문은 저자원 언어의 의료 분야 기계 번역(MT) 평가 데이터셋 부족 문제를 해결하기 위해, 세계보건기구(WHO)의 전자 학습 플랫폼에서 추출한 2,978개 문서, 26,824개 문장으로 구성된 OpenWHO라는 새로운 문서 수준 병렬 말뭉치를 소개합니다. 전문가가 작성하고 전문적으로 번역된 자료를 사용하여 웹 크롤링으로부터 보호되며, 20개 이상의 다양한 언어(그 중 9개는 저자원 언어)를 포함합니다. OpenWHO 말뭉치를 활용하여 최신 대규모 언어 모델(LLM)과 기존 MT 모델의 성능을 평가한 결과, LLM이 기존 MT 모델보다 일관되게 우수한 성능을 보였으며, 특히 저자원 언어 테스트 세트에서 Gemini 2.5 Flash 모델이 NLLB-54B 모델보다 4.79 ChrF 점수 향상을 달성했습니다. 또한 LLM의 문맥 활용이 정확도에 미치는 영향을 조사하여, 문서 수준 번역의 이점이 의료와 같은 전문 분야에서 더욱 두드러짐을 확인했습니다. 본 논문에서는 저자원 언어 의료 분야 MT 연구를 장려하기 위해 OpenWHO 말뭉치를 공개합니다.