Este artículo se centra en el sesgo posicional de los modelos lingüísticos a gran escala (LLM), especialmente el efecto de primacía en las preguntas de respuesta de opción múltiple (MCQA). Observamos que este efecto se amplifica cuando los LLM se exponen a patrones similares a los humanos durante el proceso de ajuste fino, y lo aprovechamos como estrategia para reorganizar el orden de las opciones de respuesta según su similitud semántica con la pregunta. Los resultados experimentales muestran que este enfoque mejora significativamente el rendimiento de las MCQA y presenta una nueva perspectiva sobre el sesgo, tanto como problema como oportunidad.