Este artículo aborda las inquietudes sobre la tendencia de los modelos de lenguaje a gran escala (LLM) a codificar y reproducir sesgos ideológicos políticos y económicos. Presentamos un marco para investigar y mitigar estos sesgos en LLM basados en decodificadores, utilizando pares contrastivos que extraen y comparan activaciones de capas ocultas de modelos como Mistral y DeepSec, basándose en la Prueba de la Brújula Política (PCT). Presentamos un proceso integral de extracción de activaciones capaz de realizar análisis capa por capa en múltiples ejes ideológicos, revelando diferencias significativas en el encuadre político. En consecuencia, demostramos que los LLM de decodificadores codifican sistemáticamente sesgos de representación en todas las capas, lo que puede aprovecharse para una mitigación eficaz basada en vectores de dirección. Más allá de las intervenciones superficiales de salida, presentamos un enfoque basado en principios para la eliminación de sesgos, proporcionando nuevas perspectivas sobre cómo se codifican los sesgos políticos en los LLM.