본 논문은 기존 Word Sense Disambiguation (WSD) 방법의 두 가지 한계점, 즉 토큰 수준(local)과 시퀀스 수준(global) 의미 표현의 불균형 및 모든 가능한 의미를 사용하는 과도한 계산 비용 문제를 해결하기 위해 PolyBERT 모델을 제시합니다. PolyBERT는 다중 헤드 어텐션 메커니즘을 활용한 폴리 인코더를 통해 토큰 및 시퀀스 수준 의미를 균형 있게 결합하여 의미 표현을 풍부하게 하고, Batch Contrastive Learning (BCL)을 통해 불필요한 훈련 입력을 줄여 계산 비용을 절감합니다. 실험 결과, PolyBERT는 기존 방법들보다 F1-score 기준 2% 향상된 성능을 보였으며, BCL을 사용하여 GPU 시간을 37.6% 단축했습니다.