대규모 언어 모델(LLM)의 운영자 제어에 대한 현재 연구는 선호 예시, 프롬프트, 입력/출력 필터링을 통해 적대적 공격 및 오작동에 대한 모델의 견고성을 향상시키지만, LLM은 여전히 악용될 수 있으며, 컨텍스트 길이가 길어질수록 탈옥 확률이 증가합니다. 긴 컨텍스트 상황에서 강력한 LLM 보안 보장이 필요하며, 본 연구에서는 LLM 컨텍스트에 제어 문장을 삽입하는 침투적 컨텍스트 엔지니어링을 제안하여 이 문제를 부분적으로 해결합니다. 또한, 이 기법을 Chain-of-Thought 프로세스에 일반화하여 계획을 방지할 수 있다고 제안합니다. 침투적 컨텍스트 엔지니어링은 LLM 훈련에 의존하지 않아, 긴 컨텍스트 상황에서 모델을 훈련할 때 발생하는 데이터 부족 문제를 피합니다.