본 논문은 의미 있는 텍스트를, 완전히 다른 내용이지만 일관되고 그럴듯한 텍스트 안에 숨기는 기법을 제시한다. 대규모 언어 모델(LLM)을 활용하여, 비판적인 내용을 담은 트윗을 긍정적인 내용의 트윗 안에, 혹은 비밀 원고를 제품 리뷰 안에 숨기는 것이 가능하다. 80억 개의 파라미터를 가진 소규모 LLM으로도 고품질 결과를 얻을 수 있으며, 논문 초록 정도 길이의 메시지를 노트북에서 몇 초 안에 인코딩 및 디코딩할 수 있다. 이는 텍스트와 저자의 의도를 근본적으로 분리하여, LLM 챗봇의 등장으로 이미 흔들린 신뢰를 더욱 약화시킨다.