본 논문은 사전 훈련된 언어 모델(PLM)의 적대적 공격에 대한 취약성 문제를 해결하기 위해, BERT의 각 계층을 상미분 방정식(ODE)의 해로 개념화하는 역동적 시스템 관점에서 IM-BERT를 제안합니다. 명시적 및 암시적 오일러 방법이라는 두 가지 주요 수치적 ODE 솔버의 수치적 안정성을 분석하여, BERT 계층에 통합된 수치적으로 강건한 IM-연결을 도입합니다. 이는 추가적인 매개변수나 적대적 훈련 전략 없이도 적은 자원 환경에서도 적대적 공격에 대한 PLM의 강건성을 향상시킵니다. AdvGLUE 데이터셋에서의 실험 결과는 다양한 조건 하에서 IM-BERT의 강건성을 검증하며, 기존 BERT 대비 AdvGLUE 데이터셋에서 약 8.3%p의 성능 향상을 보였고, 저자원 환경에서도 5.9%p 높은 정확도를 달성했습니다.