본 논문은 헝가리어에 대한 다양한 정적 단어 임베딩(Word2Vec, FastText, BERT 기반 모델에서 추출한 임베딩 포함)을 포괄적으로 분석합니다. 내재적 평가(단어 유추 작업)와 외재적 평가(NER 및 POS 태깅 작업)를 통해 성능을 종합적으로 비교 분석합니다. 내재적 평가 결과, FastText와 같은 기존 정적 임베딩이 높은 정확도와 MRR 점수를 달성하며 우수한 성능을 보였습니다. BERT 기반 모델 중에서는 X2Static 추출 방법이 다른 방법들보다 뛰어난 성능을 보였습니다. 외재적 평가에서는, 특히 X2Static 방법으로 추출된 동적 모델 기반 임베딩이 정적 임베딩보다 우수한 성능을 보였으며, ELMo 임베딩이 NER 및 POS 태깅 작업에서 가장 높은 정확도를 달성했습니다. 결론적으로, 본 연구는 헝가리어에서의 임베딩 성능에 대한 이해를 높이고, BERT 기반 모델의 활용성을 높일 수 있는 고급 추출 방법의 잠재력을 강조합니다. 훈련 스크립트, 평가 코드, 제한된 어휘 및 추출된 임베딩은 공개적으로 제공될 예정입니다.