본 연구는 미자원 언어인 버마어를 대상으로 분류 작업에서 사전 훈련된 인코더의 가중치를 고정하고, 분류 헤드만 미세 조정하는 방식을 채택하여 Kolmogorov-Arnold Networks (KANs)를 Multi-Layer Perceptrons (MLPs)의 대안으로 탐구했습니다. FourierKAN, EfficientKAN, FasterKAN 등 다양한 KAN 아키텍처를 TF-IDF, fastText, mBERT, Distil-mBERT와 같은 다양한 임베딩을 통해 평가했습니다. 실험 결과, KAN 기반 헤드가 MLPs에 필적하거나 더 우수한 성능을 보였으며, 특히 EfficientKAN은 fastText에서 최고 F1-score (0.928)를, FasterKAN은 속도와 정확도 간의 최적 균형을 달성했습니다. Transformer 임베딩에서는 EfficientKAN이 mBERT에서 MLPs와 동등하거나 약간 더 나은 성능 (0.917 F1)을 보였습니다.