Este artículo analiza sistemáticamente los rasgos de personalidad en modelos lingüísticos a gran escala (LLM), evaluando la dinámica de la expresión de rasgos en las distintas etapas del entrenamiento, la validez predictiva de los rasgos autoinformados y el impacto de intervenciones como la infusión de personalidad. Nuestros hallazgos demuestran que el ajuste instruccional (p. ej., RLHF) estabiliza la expresión de rasgos y fortalece las correlaciones de rasgos de forma similar a los datos humanos, pero los rasgos autoinformados no predicen el comportamiento de forma fiable, y las correlaciones observadas a menudo no se alinean con los patrones humanos. La infusión de personalidad dirige con éxito los autoinformes en la dirección deseada, pero tiene efectos escasos o inconsistentes en el comportamiento real. Por lo tanto, al distinguir entre la expresión superficial de rasgos y la consistencia conductual, cuestionamos las suposiciones sobre la personalidad en los LLM y destacamos la necesidad de una evaluación más profunda de la alineación y la interpretabilidad.