본 논문은 저자원 언어의 의료 분야 기계 번역(MT) 평가 데이터셋의 부족을 해결하기 위해 세계보건기구(WHO)의 e-러닝 플랫폼에서 추출한 2,978개 문서, 26,824개 문장으로 구성된 OpenWHO라는 문서 수준 병렬 말뭉치를 소개합니다. OpenWHO는 20개 이상의 다양한 언어를 포함하며, 그 중 9개는 저자원 언어입니다. 본 논문에서는 이 새로운 자원을 활용하여 최신 대규모 언어 모델(LLM)과 기존 MT 모델을 평가합니다. 평가 결과, LLM이 기존 MT 모델보다 일관되게 우수한 성능을 보였으며, 특히 저자원 언어 테스트 세트에서 Gemini 2.5 Flash가 NLLB-54B보다 4.79 ChrF 점 향상된 성능을 보였습니다. 또한, LLM의 컨텍스트 활용이 정확도에 미치는 영향을 조사하여 문서 수준 번역의 이점이 의료와 같은 전문 분야에서 더욱 두드러짐을 확인했습니다. 마지막으로, 저자원 언어 의료 분야 MT 연구를 장려하기 위해 OpenWHO 말뭉치를 공개합니다.