본 논문은 사전 훈련된 언어 모델(PTLM)에 대한 백도어 공격의 위험성을 다룹니다. 기존 연구는 특정 하위 작업에만 효과적인 백도어 PTLM에 초점을 맞추었지만, 실제로는 다양한 하위 작업에 적용될 수 있으며, 이는 예측 불가능한 결과와 사용자의 의심을 야기할 수 있습니다. 본 논문에서는 이러한 현상을 "백도어 복잡성"으로 정의하고, 4개의 주요 PTLM과 16개의 텍스트 분류 벤치마크 데이터셋을 사용한 광범위한 실험을 통해 하위 모델에서 백도어 복잡성의 광범위한 존재를 증명합니다. 또한, 하위 작업에 대한 사전 지식 없이 백도어 복잡성을 완화하기 위해 다중 작업 학습을 활용하는 백도어 복잡성 감소 방법을 제안하고, 실험 결과를 통해 제안된 방법의 효과를 입증합니다.