Este artículo enfatiza la importancia de monitorear la salida de los LLM para mitigar el riesgo de abuso y desalineación de los modelos de lenguaje a gran escala (LLM), y evalúa el potencial de los LLM para evadir la monitorización mediante esteganografía. Evaluamos las capacidades esteganográficas de los LLM de última generación, centrándonos en dos tipos de esteganografía: paso de mensajes cifrados y razonamiento cifrado. Encontramos que los métodos estándar para cifrar mensajes cortos en la salida no son suficientes para evadir la monitorización, pero demostramos que pueden ser exitosos cuando se proporcionan métodos adicionales, como el uso de blocs de notas no monitoreados y el preajuste del esquema de codificación. También encontramos indicios tempranos de razonamiento cifrado básico en problemas simples de seguimiento de estado, incluyendo la capacidad de razonar utilizando esquemas de codificación, incluyendo esquemas autodefinidos y predefinidos como el hexadecimal. Sin embargo, es casi imposible ocultar de forma encubierta el razonamiento para engañar al monitor. En general, los LLM actuales representan una etapa temprana de las capacidades esteganográficas, que actualmente son insuficientes para superar a los monitores bien diseñados, pero esto puede cambiar en el futuro.