대규모 언어 모델(LLM)이 자동화된 멀티 스테이지 파이프라인에 통합되면서, 검증되지 않은 신뢰로 인해 발생하는 위험 패턴이 문제가 되고 있다. 본 논문은 상업용 LLM에서 나타나는 41가지 반복적인 위험 패턴을 메커니즘 중심의 분류법으로 제시한다. 분석 결과, 입력이 비중립적으로 해석되고, 명시적인 명령 없이도 구현 방식에 따른 응답이나 의도치 않은 상태 변화를 유발할 수 있음을 확인했다. 이러한 행위는 아키텍처적 고장 모드이며, 문자열 수준의 필터링만으로는 충분하지 않다고 주장한다. 이러한 교차 단계 취약성을 완화하기 위해 출처 강제, 컨텍스트 밀봉, 계획 재검증과 같은 제로 트러스트 아키텍처 원칙을 권장하고, 이러한 방어를 구현하기 위한 개념적 청사진으로 "Countermind"를 소개한다.