본 논문은 사전 훈련된 언어 모델(PLM)의 task-agnostic 백도어 공격 취약성을 다룹니다. 기존의 백도어 공격 방어 기법의 한계를 극복하기 위해, $\mathtt{SynGhost}$ 라는 새로운 task-agnostic 백도어 공격 기법을 제안합니다. $\mathtt{SynGhost}$는 문법적 전이(syntactic transfer)를 이용하여 보이지 않는(invisible) 그리고 범용적인(universal) 백도어를 사전 훈련 과정에 주입합니다. 여기에는 대조 학습(contrastive learning)을 기반으로 최적의 공격 대상을 선택하고, 백도어 간의 간섭을 최소화하기 위한 인식 모듈(awareness module)을 활용하는 전략이 포함됩니다. 또한, 기존의 엔트로피 기반 필터인 $\mathtt{maxEntropy}$를 소개하고, $\mathtt{SynGhost}$가 perplexity 기반 방어, fine-pruning, 그리고 $\mathtt{maxEntropy}$를 포함한 기존 방어 기법에 대한 저항성을 가짐을 실험적으로 보여줍니다.