본 논문은 한국어와 같은 저자원 언어에서 대규모 언어 모델(LLM)의 성능 저하 문제를 해결하기 위해, 한자를 활용한 새로운 의미 주입 기법인 HanjaBridge를 제안한다. HanjaBridge는 동음이의어에 대해 모든 가능한 한자 후보를 모델에 제공하여 문맥에 따른 의미 분별을 유도하고, 지식 증류를 통해 망각 문제를 방지한다. 지속적 사전 훈련(CPT) 프레임워크에 통합된 HanjaBridge는 KoBALT 벤치마크에서 21%의 성능 향상을 달성하였으며, 한국어와 중국어 간의 의미 정렬 강화를 통해 긍정적인 교차 언어 전이 효과를 보였다. 추론 시 한자 추가 없이도 성능 향상이 유지되어 실용적인 효율성을 확보하였다.