Este artículo explora la influencia del carácter y el contexto en el comportamiento de los modelos lingüísticos a gran escala (LLM), utilizados como agentes de toma de decisiones de tipo humano en ciencias sociales y campos aplicados. En concreto, proponemos y validamos un método para examinar, cuantificar y modificar las representaciones internas de los LLM mediante el Juego del Dictador, un experimento conductual clásico que examina la equidad y el comportamiento prosocial. Demostramos que la extracción de vectores de cambio de variables (p. ej., de "masculino" a "femenino") del estado interno del LLM y su manipulación durante la inferencia pueden alterar significativamente la relación de las variables con las decisiones del modelo. Este enfoque proporciona un método con principios para estudiar y regular cómo se pueden codificar y diseñar los conceptos sociales en modelos basados en Transformers, y presenta Takeaways para la alineación, la desviación y el diseño de agentes de IA para la simulación social en aplicaciones académicas y comerciales. Esto puede contribuir a mejorar la teoría y la medición sociológicas.