사이버-물리 시스템의 자율성 증대를 위해 대규모 언어 모델(LLM) 및 시각-언어 모델(VLM)과 같은 기반 모델의 의존도가 높아지고 있지만, 이러한 모델은 환각, 과도한 일반화, 문맥 불일치와 같은 새로운 유형의 오류를 발생시켜 잘못된 결정을 초래합니다. 이러한 문제를 해결하기 위해, 인공지능이 생성하는 결정을 제한하는 추론 경계를 설정하고 메타인지 및 기존 안전성 봉투를 보완하도록 설계된 인지 봉투(Cognition Envelopes) 개념을 소개합니다. 안전성 봉투와 마찬가지로, 인지 봉투는 정의, 검증 및 보증을 위한 실용적인 지침과 체계적인 프로세스가 필요합니다.